Przeglądaj wersję html pliku:

miernictwo sygnały harmoniczne


Sygnały harmoniczne

W wielu zagadnieniach mechaniki i fizyki rozważa się wielkości
zależne od czasu t  wyrażające się wzorem



Takie wielkości nazywamy harmonikami, a ich zmiany w zależności od
czasu t nazywamy drganiami harmonicznymi.

Poprzez zmianę fazy harmoniki funkcję sinus można wyrazić za pomocą
funkcji cosinus zależnością

, (2)

tak więc cosinusoida jest też harmoniką.

to sinus jak i cosinus wracają do początkowej wartości. Nastąpi to
po czasie który oznaczymy przez T.

W takim razie



Po prostych przekształceniach otrzymamy

(3)

jest przedziałem czasu, po którym ruch się powtarza. Nazywamy go
okresem ruchu harmonicznego.

równa się wymiarowi odwrotności czasu. Jeżeli
okres T = 1[s] to  f = 1 [1/s].

Jednostkę częstotliwości nazwano hercem (skrót Hz). Np. przy okresie
T=1/1000 [s] częstotliwość f=1000 [Hz].

Ze wzoru (3 ) otrzymujemy

(4)

jest radian [rad].

Wielkość x określa amplitudę harmoniki. W sensie fizycznym harmonika
jest funkcją czasu i nazywamy ją sygnałem. Sygnał definiuje się
jako cechę określonej wielkości fizycznej zawierającą informację.
Sygnały są nośnikami informacji ale same jeszcze nie stanowią
informacji. Ogólnie, sygnał x(t) może być dowolną wielkością
fizyczną zmienną w czasie, a natura fizyczna sygnału może być
różnorodna np. mechaniczna, elektryczna, elektromagnetyczna, cieplna,
optyczna itp. Energia sygnału może ulec wielokrotnemu przekształceniu
np. cieplna w optyczną, mechaniczna w elektryczną itp. Zatem,
jednostką amplitudy sygnału będzie jednostka wielkości fizycznej
którą reprezentuje sygnał np. [m], [rad], [rad/s], [m/s], [m/s^2],
[rad/s^2], [N], lub [Nm]. Wielkości opisujące sygnały, które trzeba
pamiętać, gdyż używane są często przy omawianiu rozmaitych drgań
to:

- amplituda (wartość maksymalna harmoniki) wyrażana w jednostkach

fizycznych które reprezentuje,

- faza [rad],

- faza początkowa [rad],

- częstość kołowa lub kątowa [rad/s],

- częstotliwość lub częstość [Hz],

- okres [s].

Wzory na przemieszczenie, prędkość i przyspieszenie w ruchu
harmonicznym możemy napisać w następujący sposób, jeśli
przemieszczenie opiszemy zależnością

(5)

to prędkość ruchu będzie pochodną przemieszczenia względem czasu

(6)

a przyspieszenie ruchu będzie pochodną prędkości względem czasu i
drugą pochodną przemieszczenia względem czasu

(7)

). Oznacza to, że amplituda prędkości ruchu harmonicznego zależy
od amplitudy przemieszczenia ruchu i od częstotliwości . Operacja
całkowania sygnału harmonicznego jest operacją odwrotną do operacji
różniczkowania i wygląda następująco;

(8)

(9)

(10)

Rys. 1. Sygnał harmoniczny i jego pochodne

. Interpretację graficzną wyników operacji różniczkowania sygnału
harmonicznego oraz niektóre wielkości stosowane w opisie sygnałów
harmonicznych przedstawiono na rys.1.

) nazywamy taki ruch oscylujący, dla którego

(11)

.

Zauważmy, że w przypadku ruchu periodycznego o okresie T z (6 i 7)
wynika również okresowość prędkości i przyspieszenia, co znaczy,
że warunki:

(12)

również muszą być spełnione dla dowolnej wartości t.

rys. (2) następująco

(13)

oraz uwzględniając warunki (11) i (12), mamy

(14)

są identyczne.

krzywą zamkniętą (pętlę). Jeśli ruch punktu jest okresowy,
następna „pętla” będzie pokrywać się z poprzednią.

Rys. 2. Ruch periodyczny opisany wektorową funkcją okresową.

) nazywać będziemy płaszczyzną fazową. Ruch punktu [x(t),v(t)]
odbywa się po pewnej krzywej, zwanej trajektorią płaszczyzny fazowej
lub portretem fazowym ruchu.

Sygnały harmoniczne. Zapis zespolony

Rozpatrzmy sygnał okresowy opisany funkcją

(15)

otrzymaną z zależności (1) wprowadzając podstawienie

(16)

w tym przypadku przyjmuje kształt

(17)

postaci (13) ma postać

(18)

Na podstawie (15) i (17) otrzymujemy związek

(19)

który jest równaniem elipsy (rys.3).

Rys. 3. Ruch harmoniczny w opisie wektorowej funkcji okresowej. Portret
fazowy sygnału harmonicznego.

Z definicji (15) otrzymujemy

(20)

gdzie

(21)

. Związki między każdą trójką tych stałych są jednoznacznie
określone wzorami (16), (21).

zapisuje się jako sumę jej części rzeczywistej i urojonej, to jest
następująco

(22)

zaś są dowolnymi liczbami rzeczywistymi, zwanymi

,

.

Wartości tych liczb jednoznacznie określają liczbę zespoloną.
Liczbę z można zilustrować na tzw. płaszczyźnie zespolonej (rys. 4
).

Rys. 4. Interpretacja wektorowa liczby zespolonej.

(por. rys. 4 ), liczbę tę można także zapisać w postaci

(23)

są równe, gdy

(24)

nazywamy taką liczbę zespoloną, dla której spełnione są warunki

(25)

(por. rys. 4). Z powyższych definicji wynika, że suma dwu dowolnych
liczb zespolonych sprzężonych ze sobą jest zawsze liczbą
rzeczywistą równą

(26)

wzajemnie sprzężonych:

(27)

w postaci wykładniczej, otrzymamy

(28)

) daje

(29)

Z porównania związków (27) i (29) otrzymujemy:



skąd:

(30)

Korzystając z wyników (30) funkcję harmoniczną (27) można zapisać
w postaci



skąd można zapisać

(31)

oznaczono tzw. amplitudę zespoloną równą

(32)

, tj.

(33)

(por. rys. 5) .

, powodują, że „wektor” wypadkowy opisujący ruch x(t) pozostaje
zawsze na osi rzeczywistej, a jego długość zmienia się harmonicznie
zgodnie z postacią (27) (rys. 5).

Rys. 5. Graficzna interpretacja postaci zespolonej drgań harmonicznych.

Bazę wielkości określających jednoznacznie ruch harmoniczny
tworzą, w tym wypadku,

w postaci

(34)

gdzie

(35)

możemy napisać:

(36)

(37)

Mnożąc stronami tożsamości (36) i (37), otrzymujemy

(38)



w postaci

` (39)

Z na przykład (36) uzyskamy:



skąd otrzymujemy

(40)

(por. rys. 6), gdzie

`(41)

(42)

Wyrażenie (40) jest dość skomplikowane. Rozpatrzmy więc dwa prostsze
przypadki.

Przypadek 1)

(43)

Po podstawieniu wyrażenia (43) do wzoru (39) otrzymamy:

(44)

Wzór (40) będzie w tym przypadku miał następującą postać:



mamy dalej:





(45)

sumy dwóch składowych harmonicznych o różnych częstościach,
amplitudach i fazach początkowych.

Podstawiając zależności (44) i (45) do (34), otrzymamy równanie
ruchu dla tego przypadku drgań w postaci:

(46)

Drgania o tej postaci tworzą tzw. falę modulowaną amplitudowo. W
przypadku, gdy częstości drgań różnią się nieznacznie i znajdują
się w zakresie częstości słyszalnej dla człowieka, drgania te
wywołują charakterystyczne, często spotykane zjawisko dudnienia.

Przypadek 2)

(47)

W tym przypadku na podstawie (44) mamy:

(48)

a więc stałą amplitudę równą sumie amplitud drgań składowych.
Podstawiając warunki (47) do (40), otrzymujemy wzór określający
fazę:



i funkcja opisująca ruch jest zwykłą cosinusoidą o postaci

(49)

Rys. 7. Przykład funkcji okresowej opisującej drgania dla przypadku
równych amplitud i nieznacznie różnych częstości składowych sumy
dwóch drgań. Ilustracja zjawiska dudnienia.

.

Rys. 8. Geometryczna interpretacja sumy dwóch drgań harmonicznych o
jednakowych częstościach.

Operacja różniczkowania i całkowania sygnału harmonicznego w postaci
zespolonej wygląda następująco;

(50)

(51)

gdzie:

.

Energia drgania w ruchu harmonicznym.

Gdy punkt materialny przytrzymywany w położeniu równowagi siłami
sprężystymi zaczyna drgać, jego energia składa się z energii
potencjalnej i kinetycznej. Energia potencjalna występuje dzięki
istnieniu sił wewnętrznych, energia kinetyczna – ponieważ punkt
porusza się

z pewną prędkością. Aby obliczyć całkowitą energię układu,
należałoby obliczyć energię potencjalną, jaką punkt ma w danej
chwili, następnie energię kinetyczną i dodać je. Ponieważ siła
działająca na punkt zmienia się podczas wychylania, trzeba by w tym
przypadku użyć rachunku całkowego. Uprościmy sobie to zagadnienie
korzystając z faktu, że są takie chwile,

gdy układ ma tylko energię kinetyczną, to znaczy jego całkowita
energia równa się energii kinetycznej. Zachodzi to w chwilach, gdy
punkt drgający przechodzi przez położenie równowagi, a więc jego
wychylenie równa się zeru. Ze wzoru na wychylenie

(52)

, a więc gdy



Prędkość ruchu drgającego

(53)

.

Energia kinetyczna

(54)

Ponieważ całkowita energia w wymienionych chwilach równa się energii
kinetycznej,

możemy więc napisać

(55)

Z tego wzoru widać, że energia punktu drgającego jest proporcjonalna
do masy tego punktu,

do kwadratu amplitudy jego wychylenia i kwadratu częstości drgań.

Sygnały poliharmoniczne

Sygnałami poliharmonicznymi nazywamy takie typy sygnałów okresowych,
które powtarzają dokładnie swoje wartości w jednakowych
przedziałach czasowych i opisane są zależnością

(56)

gdzie n = 1,2,3....

Tak jak w przypadku sygnału harmonicznego, przedział czasu, w ciągu
którego zachodzi jedno pełne drganie (pełny cykl), nazywa się
okresem Tp.

Sygnały poliharmoniczne, z nielicznymi wyjątkami, można rozwinąć w
szereg Fouriera. Ponieważ szereg Fourier jest funkcją okresową to
możemy zapisać go zgodnie z czterema różnymi sposobami zapisów
funkcji harmonicznej (por. wzory (1), (15), (20), (31)) następującym
wzorem

(57)

gdzie dla k=0 można przyjąć

(58)

o postaci:





(59)

. Wzór na okres podstawowy Tp można wyrazić zależnością

(60)

są liczbami naturalnymi.

Przykładem sygnału poliharmonicznego może być sygnał opisany
funkcją y(t) =  t dla 0 < t < 2rys. 9). Jak
widać na rys. 9, dokładność odwzorowania funkcji zależy od liczby
składowych harmonicznych szeregu Fouriera aproksymującego sygnał.
Zakładając stałą dokładność aproksymacji sygnału za pomocą
szeregu Fouriera zauważymy, że dla różnych postaci sygnału wymagana
jest inna liczba składowych harmonicznych. Sygnały o szybkich zmianach
wartości, zwłaszcza takie, które posiadają punkty nieciągłości w
formie ostrych załamań i „pików”, potrzebują do odwzorowania
dużej liczby harmonik. O takich sygnałach mówi się, że posiadają
szeroką charakterystykę widmową lub mają „szerokie widmo”. W
przypadkach przebiegów okresowych załamania takie są wyrazem
istnienia składowych o wysokich częstotliwościach. Sygnały o
łagodnym przebiegu lub o „zaokrąglonych kształtach” zawierają
stosunkowo niewielką liczbę harmonik i nazywa się je sygnałami o
szybkozbieżnej charakterystyce widmowej lub sygnałami o „wąskim
widmie”.

W innych przypadkach, może nie istnieć składowa o częstotliwości
podstawowej . Załóżmy na przykład (rys. 10), że sygnał
okresowy powstał w wyniku superpozycji trzech sygnałów harmonicznych
o częstotliwościach odpowiednio 6, 7.5, 10 [Hz]. Największy
wspólny podzielnik tych liczb równy jest 0.5 [Hz], a więc okres
wynikowego sygnału okresowego Tp = 2 [s]. Po rozwinięciu w szereg
Fouriera wartości amplitud xk będą równe zeru dla wszystkich n
oprócz n = 12, n = 15, n = 20.

Zjawiska fizyczne, którym odpowiadają sygnały poliharmoniczne,
występują znacznie częściej niż zjawiska opisywane za pomocą
zwykłej funkcji harmonicznej. Zaliczając dany sygnał do grupy
sygnałów harmonicznych dokonuje się na ogół pewnego przybliżenia,
ponieważ rozpatrywany sygnał jest -ściśle biorąc- sygnałem
poliharmonicznym. W pewnych przypadkach mogą istnieć w fizycznym
sygnale okresowym składowe harmoniczne nawet o stosunkowo dużych
amplitudach. Przykładem mogą być wibracje wielocylindrowego silnika
tłokowego, które wykazują przeważnie silnie uwydatnione składowe
harmoniczne.

Najczęściej używanymi wartościami, które służą do oznaczania
poliharmonicznych sygnałów okresowych są:

wartość szczytowa xp - największa wartość sygnału mierzona od
położenia zerowego,

wartość międzyszczytowa xpp - różnica między wartością
maksymalną a minimalną,

(61)

(62)

.



przy pomocy różnej liczby wyrazów szeregu Fouriera

Dla poliharmonicznych sygnałów okresowych stosunek wartości
skutecznej do wartości średniej nie jest stały i zależy od postaci
sygnału. Zaleca się, w miarę możliwości unikanie posługiwaniem
się wartością średnią sygnału jako estymatorem bardziej
obciążonym.

.

Rys. 11. Przykład graficznej prezentacji najczęściej stosowanych
wartości opisujących sygnały poliharmoniczne

Jak wspomniano wcześniej, sygnały okresowe można uzyskać sumując
fale sinusoidalne o współmiernych częstotliwościach. Jednak
sygnały, które powstały w wyniku sumowania fal sinusoidalnych o
dowolnych częstotliwościach, nie są na ogół sygnałami okresowymi.
Mówiąc dokładniej, suma dwóch lub więcej fal sinusoidalnych tworzy
sygnał okresowy tylko w tym przypadku, gdy stosunki wszystkich
możliwych par częstotliwości wyrażają się liczbami wymiernymi.
Oznacza to, że istnieje pewien podstawowy okres Tp spełniający
warunek określony wzorem (60).

Natomiast sygnał

(63)

, są niewymierne (okres podstawowy Tp jest równy
nieskończoności). W takim przypadku sygnały takie nazywamy prawie
okresowymi lub pseudookresowymi,

,

. Oczywistym jest, że im mniejsze przyjmiemy zaokrąglenia dziesiętne
tym większe otrzymamy wartości okresu Tp. W zasadzie, wszystkie
sygnały złożone z sumy sygnałów harmonicznych możemy traktować
jako sygnały okresowe o odpowiednio długim okresie. Niemniej, podział
sygnałów na okresowe i pseudookresowe lepiej jest zachować i
sygnały okresowe nie posiadające składowej będącej
częstotliwością podstawową powinno się traktować jak
sygnały pseudookresowe.

Krzywe Lissajous

Dotychczas sumowaliśmy składowe harmoniczne wzdłuż jednej osi czasu
t. Często postrzegamy punkty drgającego ciała poruszające się po
torach przestrzennych lub płaskich. Taki ruch punktów drgającego
ciała sprowadza się do geometrycznego sumowania składowych
harmonicznych w przestrzeni lub na płaszczyźnie. Wzory opisujące ruch
punktu są parametryczną formą równania toru punktu o
współrzędnych x(t), y(t), z(t), gdzie czas t jest parametrem. W
przypadku sumowania sygnałów w układzie współrzędnych
ortogonalnych ( na kierunkach prostopadłych do siebie) otrzymamy:





(64)

gdzie: nx, ny, nz - liczby składowych harmonicznych w kierunkach osi x,
y, z;

-amplitudy składowych w kierunkach osi x, y, z;

- fazy początkowe składowych w kierunkach osi x, y, z;

- częstości kołowe składowych w kierunkach osi x, y, z.

(por. rys. 12).

Podsumowując, cecha sygnału jaką jest okresowość albo
pseudookresowość widoczna jest nie tylko w dziedzinie czasu ale
także w kształcie torów przestrzennych drgającego punktu
(figur Lissajous).



Rys. 12. Figury Lissajous, na płaszczyźnie, przy różnych czasach
obserwacji dla składowych, których stosunek częstości nie jest
liczbą wymierną .

Sygnały stochastyczne oraz ich charakterystyki.

Sygnałem stochastycznym jest nazywany sygnał, którego wartości dla
każdej chwili są zmiennymi przypadkowymi. Obserwując taki sygnał w
danym układzie dynamicznym, uzyskuje się pewien konkretny przebieg,
zwany realizacją procesu stochastycznego. Zbiór wszystkich realizacji
takiego przebiegu jest nazywany procesem stochastycznym. Proces
stochastyczny nazywa się stacjonarnym, jeśli jego własności
statystyczne nie zależą od czasu. Dla większości procesów
stacjonarnych obowiązuje tzw. twierdzenie ergodyczne, według którego
uśrednianie wartości sygnału względem różnych realizacji można
zastąpić uśrednianiem względem czasu.

Stacjonarne procesy losowe.

Z punktu widzenia teorii procesów losowych zjawisko fizyczne można
opisać w dowolnej chwili, obliczając wartości średnie w zbiorze
funkcji losowych, reprezentujących dany proces. Rozpatrzmy zbiór
funkcji losowych tworzących proces losowy przedstawiony na rys. .

procesu losowego {x(t)} wyznacza się z zależności

(65)

(66)

Rys. 13. Figury Lissajous dla ruchu harmonicznego przy różnych
stosunkach częstotliwości i różnych fazach drgań
składowych.

przy czym sumując zakłada się, że wystąpienie każdej funkcji
losowej jest jednakowo prawdopodobne.

.

Dla procesu losowego {x(t)} można obliczyć nieskończony zbiór
momentów wyższych rzędów i momentów łącznych; ich pełny zbiór
opisuje rozkład probablistyczny procesu. Gdy wszystkie możliwe momenty
oraz momenty łączne nie zależą od czas, proces {x(t)} nazywa się
ściśle stacjonarnym lub stacjonarnym w węższym sensie. Dla wielu
praktycznych przykładów stwierdzenie słabej stacjonarności procesu
usprawiedliwia przyjęcie wniosku o ścisłej stacjonarności.

Ergodyczne procesy losowe

k-tej funkcji losowej określa się następującymi wyrażeniami:

67

68

. Należy zauważyć, że tylko procesy stacjonarne mogą wykazywać
cechę ergodyczności (rozważa się także dla procesów
niestacjonarnych ergodyczność względem danego momentu).

Ergodyczne procesy losowe stanowią, oczywiście, ważną klasę
procesów losowych, ponieważ wszystkie właściwości losowych
procesów ergodycznych mogą być określone przez uśrednienie w czasie
jednej funkcji losowej (sygnału obserwowanego). Na szczęście w
praktyce procesy losowe odpowiadające stacjonarnym zjawiskom fizycznym
są na ogół ergodyczne.

Z tego też względu w większości przypadków można prawidłowo
wyznaczyć charakterystyki stacjonarnego procesu losowego na podstawie
jednej realizacji.

Niestacjonarne procesy losowe

Do procesów niestacjonarnych zalicza się wszystkie procesy losowe,
które nie spełniają wymagań dotyczących stacjonarności wyliczonych
we wzorach 65, 66. O ile nie wprowadzono specjalnych ograniczeń, to
charakterystyki niestacjonarnego procesu losowego są funkcjami czasu,
które można określić tylko przez uśrednienie wartości chwilowych w
zbiorze funkcji losowych tworzących ten proces. W praktyce nie można
na ogół uzyskać dostatecznie dużej liczby realizacji, niezbędnej
dla dokładnego pomiaru charakterystyk przez uśrednienie w zbiorze.

Okoliczność ta utrudnia rozwój praktycznych metod pomiaru i analizy
niestacjonarnych procesów losowych.

W wielu przypadkach można jednak wydzielić w klasie niestacjonarnych
procesów losowych, odpowiadających realnym zjawiskom fizycznym
specjalne kategorie niestacjonarności, co upraszcza zadanie pomiaru i
analizy. Na przykład niektóre zjawiska o charakterze losowym mogą
być opisane niestacjonarnym procesem losowym {y(t)}, którego każda
funkcja losowa ma postać y(t)=A(t)x(t), gdzie x(t) jest funkcją
losową stacjonarnego procesu losowego {x(t)}, a A(t) jest
zdeterminowanym mnożnikiem. Innymi słowami, taki proces zalicza się
do niestacjonarnych procesów losowych, których funkcje losowe cechują
się wspólnym zdeterminowanym trendem czasowym. Jeżeli niestacjonarny
proces odpowiada konkretnemu modelowi takiego typu, to do jego opisu nie
trzeba dokonywać uśredniania w zbiorze. Różne wymagane
charakterystyki procesu można niekiedy ocenić na podstawie jednej
funkcji losowej, jak to ma miejsce dla procesów ergodycznych.

Stacjonarne sygnały obserwowane

Rozpatrywane wcześniej pojęcie stacjonarności, związane jest z
uśrednieniem w zbiorze charakterystyk procesu losowego. W praktyce
często mówi się o stacjonarności lub niestacjonarności jednego
sygnału obserwowanego procesu losowego. Stosuje się tu nieco odmienne
pojęcie stacjonarności. Gdy mówi się o stacjonarności jednej
realizacji, to oznacza, że charakterystyki wyznaczone dla krótkich
przedziałów czasu następujących po sobie nie zmienią się znacznie.
Wyrażenie „znacznie” oznacza, że zaobserwowane zmiany są większe
niż można by tego oczekiwać, uwzględniając typową statystyczną
zmienność losową.

:

69

70

, sygnał obserwowany uważa się za stacjonarny.

Należy zaznaczyć, że odcinek realizacji ergodycznego procesu
losowego jest stacjonarny. Jeżeli założenie o ergodyczności jest
uzasadnione (jak to ma miejsce dla większości realnych stacjonarnych
zjawisk fizycznych), to stwierdzenie stacjonarności jednego sygnału
obserwowanego może stanowić dostateczne uzasadnienie dla założenia
stacjonarności i ergodyczności procesu losowego, do którego należy
dany sygnał obserwowany.

Główne charakterystyki sygnałów losowych

Do opisania głównych właściwości sygnałów losowych stosuje się
cztery funkcje statystyczne:

wartość średniokwadratową,

funkcję gęstości prawdopodobieństwa,

funkcję autokorelacji,

funkcję widmowej gęstości mocy.

Wartość średniokwadratowa daje elementarne pojęcie o intensywności
procesu.

Gęstość prawdopodobieństwa charakteryzuje właściwości procesu w
dziedzinie wartości amplitud. Funkcja autokorelacji i funkcja
gęstości widmowej mocy dają podobną informację o procesie w
dziedzinie odpowiednio czasowej i częstotliwościowej. Pod względem
formalnym funkcja autokorelacji procesu stacjonarnego nie zawiera
dodatkowej informacji w porównaniu z funkcją widmowej gęstości mocy,
gdyż związane one są ze sobą wzajemnie jednoznacznym
przekształceniem Fouriera.

Omówimy w sposób ogólny wymienione charakterystyki stacjonarnych
procesów losowych. Zakładamy przy tym, że procesy te wykazują cechy
ergodyczności, a więc dane charakterystyki można wyznaczyć metodą
uśredniania w czasie poszczególnych funkcji losowych.

Wartości średnie i wariancja

danego sygnału x(t) określa się zgodnie ze wzorem:

71

Często stosuje się pojęcie wartości bezwzględnej pierwiastka
kwadratowego z wartości średniokwadratowej, zwanej wartością
skuteczną.

Nieraz wygodnie jest rozpatrywać sygnał fizyczny w postaci sumy
składowej statycznej, tzn. niezależnej od czasu, i składowej
dynamicznej lub fluktuacyjnej. Składową statyczną można opisać
przez wartość średnią, która jest pop prostu wartością średnią
funkcji obserwowanej. Wartość średnia określana jest wzorem

72

Składową dynamiczną można opisać przez wariancję sygnału, która
równa jest średniemu kwadratowi odchylenia jego wartości od
wartości średniej, czyli

73

Wartość bezwzględna pierwiastka kwadratowego z wariancji nazywa się
odchyleniem standardowym. Otwierając nawiasy w funkcji podcałkowej
(73) można stwierdzić, że wariancja równa jest różnicy między
wartością średniokwadratową i kwadratem wartości średniej, czyli

74

Gęstość prawdopodobieństwa

Funkcję gęstości prawdopodobieństwa sygnału losowego określają
prawdopodobieństwo zdarzenia polegającego na tym, że wartości
sygnału w dowolnej chwili są zawarte w określonym przedziale.
Rozpatrzmy pewną realizację jako funkcję czasu x(t), przedstawioną
na rysunku ( ).

w czasie trwania obserwacji T. Przy dążeniu T do nieskończoności
stosunek ten coraz dokładniej opisuje prawdopodobieństwo takiego
zdarzenia. Można to zapisać w następujący sposób:

75

gęstość prawdopodobieństwa p(x) można określić następującym
przybliżonym związkiem:



lub ściślej

76

Gęstość prawdopodobieństwa jest zawsze funkcją rzeczywistą
nieujemną.

PAGE 16

PAGE 17

 
statystyka