Przeglądaj wersję html pliku:

Metrologia Wykład cz.2


Wybrane modele matematyczne sygnałów
Sygnały harmoniczne W wielu zagadnieniach mechaniki i fizyki rozwaŜa się wielkości zaleŜne od czasu t wyraŜające się wzorem x ( t ) = x m sin( ω t + φ ). (1)

Takie wielkości nazywamy harmonikami, a ich zmiany w zaleŜności od czasu t nazywamy drganiami harmonicznymi. Poprzez zmianę fazy harmoniki funkcję sinus moŜna wyrazić za pomocą funkcji cosinus zaleŜnością

x m cos[(ω t + φ ) −
tak więc cosinusoida jest teŜ harmoniką.

π
2

] = x m sin(ω t + φ ) ,

(2)

Gdy kąt (ωt + φ ) wzrasta o 2π to sinus jak i cosinus wracają do początkowej wartości. Nastąpi
to po czasie który oznaczymy przez T. W takim razie

ω (t + T ) + φ = ω t + φ + 2π .
Po prostych przekształceniach otrzymamy T= 2π (3)

ω

Zatem T jest przedziałem czasu, po którym ruch się powtarza. Nazywamy go okresem ruchu harmonicznego. Często wprowadza się do wzorów wielkość f = 1 będącą odwrotnością okresu. Nazywamy ją T

częstotliwością lub częstością drgań. Wskazuje ona, ile okresów mieści się w jednostce czasu, a więc ile razy w jednostce czasu powtarza się ruch. PoniewaŜ f = częstotliwości [ f ] = [t −1 ] równa się wymiarowi odwrotności 1 , zatem wymiar T czasu. JeŜeli

okres T = 1[s] to f = 1 [1/s].

1

Jednostkę częstotliwości nazwano hercem (skrót Hz). Np. przy okresie T=1/1000 [s] częstotliwość f=1000 [Hz]. Ze wzoru (3 ) otrzymujemy

ω =

2π = 2π f T

(4)

Liczba ω wskazuje, ile drgań odbywa się w 2π sekundach. Wielkość której miarą jest ω
nazywamy częstością kołową lub kątową. Wielkość φ nazywamy fazą początkową harmoniki. Wartość φ wyznacza miejsce harmoniki na osi czasu w odniesieniu do chwili t = 0. Miejsce harmoniki na osi jest radian [rad]. Wielkość x określa amplitudę harmoniki. W sensie fizycznym harmonika jest funkcją czasu i nazywamy ją sygnałem. Sygnał definiuje się jako cechę określonej wielkości fizycznej zawierającą informację. Sygnały są nośnikami informacji ale same jeszcze nie stanowią informacji. Ogólnie, sygnał x(t) moŜe być dowolną wielkością fizyczną zmienną w czasie, a natura fizyczna sygnału moŜe być róŜnorodna np. mechaniczna, elektryczna, czasu w chwili t = 0 określa zaleŜność -

φ [s]. Jednostką kąta fazowego φ ω

elektromagnetyczna, cieplna, optyczna itp. Energia sygnału moŜe ulec wielokrotnemu przekształceniu np. cieplna w optyczną, mechaniczna w elektryczną itp. Zatem, jednostką amplitudy sygnału będzie jednostka wielkości fizycznej którą reprezentuje sygnał np. [m], [rad], [rad/s], [m/s], [m/s^2], [rad/s^2], [N], lub [Nm]. Wielkości opisujące sygnały, które trzeba pamiętać, gdyŜ uŜywane są często przy omawianiu rozmaitych drgań to:

x m - amplituda (wartość maksymalna harmoniki) wyraŜana w jednostkach
fizycznych które reprezentuje, (ωt + φ ) - faza [rad],

φ - faza początkowa [rad],

ω - częstość kołowa lub kątowa [rad/s],
f = 1 ω = - częstotliwość lub częstość [Hz], T 2π

T - okres [s].

2

Wzory na przemieszczenie, prędkość i przyspieszenie w ruchu harmonicznym moŜemy napisać w następujący sposób, jeśli przemieszczenie opiszemy zaleŜnością x ( t ) = x m sin( ω t + φ ) to prędkość ruchu będzie pochodną przemieszczenia względem czasu (5)

v (t ) =

dx ( t ) π = ω x m cos( ω t + φ ) = v m sin[( ω t + φ ) + ] dt 2

(6)

a przyspieszenie ruchu będzie pochodną prędkości względem czasu i drugą pochodną przemieszczenia względem czasu a (t ) = dv ( t ) d 2 x ( t ) = = −ω 2 x m sin( ω t + φ ) = a m sin[( ω t + φ ) + π ] 2 dt dt

(7)

Z powyŜszych wzorów wynika, Ŝe pochodne względem czasu sygnału harmonicznego są równieŜ sygnałami harmonicznymi . KaŜda operacja róŜniczkowania sygnału zwiększa amplitudę sygnału róŜniczkowanego ω razy (np. vm = ωxm ) i przesuwa fazę o + prędkości ruchu wyprzedza sygnał przemieszczenia ruchu o prędkości ruchu harmonicznego zaleŜy

π
2

(sygnał

π
2

). Oznacza to, Ŝe amplituda przemieszczenia ruchu

od amplitudy

i od częstotliwości . Operacja całkowania sygnału harmonicznego jest operacją odwrotną do operacji róŜniczkowania i wygląda następująco; v (t ) = ∫ a m sin(ω t + φ ) dt = − am cos( ω t + φ ) = v m sin[( ω t + φ ) −

π
2

ω

]

(8)

x (t ) = ∫∫ a m sin(ω t + φ ) dt = − x (t ) = ∫ v m sin(ω t + φ ) dt = −

ω2

am

sin(ωt + φ ) = x m sin[(ωt + φ ) − π ]

(9)

vm

ω

cos(ω t + φ ) = x m sin[(ω t + φ ) −

π
2

]

(10)

3

Amplituda scałkowanego sygnału harmonicznego jest ω całkowanego a faza opóźniona o

razy mniejsza od sygnału

π
2

. Interpretację graficzną wyników operacji róŜniczkowania

sygnału harmonicznego oraz niektóre wielkości stosowane w opisie sygnałów harmonicznych przedstawiono na rys.1.

Rys. 1. Sygnał harmoniczny i jego pochodne Ruchem okresowym lub periodycznym ustalonym o okresie T w przedziale czasu ( t ' .t '' ) nazywamy taki ruch oscylujący, dla którego x(t ) = x(t + T ) dla kaŜdego t ∈< t ' ,t '' > . (11)

4

ZauwaŜmy, Ŝe w przypadku ruchu periodycznego o okresie T z (6 i 7) wynika równieŜ okresowość prędkości i przyspieszenia, co znaczy, Ŝe warunki: v(t ) = v(t + T ) , a (t ) = a (t + T ) równieŜ muszą być spełnione dla dowolnej wartości t. Zbudujmy wektor x w przestrzeni dwuwymiarowej x, v o wersorach i , j rys. (2) następująco
x = xi + vj

(12)

(13)
. dx (t ) → x (t ) oraz dt

Podstawiając za x funkcję okresową x(t), za v zaś jej pochodną uwzględniając warunki (11) i (12), mamy

x = x (t ) = x (t )i + x (t ) j = x (t + T )i + x(t + T ) j = x (t + T )

.

.

(14)

skąd wynika, Ŝe obydwa wektory x (t ) i x (t + T ) są identyczne. ZauwaŜmy, Ŝe w przedziale czasu τ ∈ (t , t + T ) ruch wektora x jest jednoznacznie określony przez zmienne x (t ) i v(t ) . Natomiast po upływie czasu T od dowolnie przyjętej chwili t wektor x wraca do połoŜenia wyjściowego, zakreślając w czasie τ krzywą zamkniętą (pętlę). Jeśli ruch punktu jest okresowy, następna „pętla” będzie pokrywać się z poprzednią.
v

x(t)=x(t+T)

j I

x

Rys. 2. Ruch periodyczny opisany wektorową funkcją okresową. Ruch końca wektora x (t ) w czasie jednego okresu odbywa się więc po trajektorii
& zamkniętej rys.( 2 ). Płaszczyznę ν , x (gdzie ν = x! ) nazywać będziemy płaszczyzną fazową.

5

Ruch punktu [x(t),v(t)] odbywa się po pewnej krzywej, zwanej trajektorią płaszczyzny fazowej lub portretem fazowym ruchu.

Sygnały harmoniczne. Zapis zespolony
Rozpatrzmy sygnał okresowy opisany funkcją x ( t ) = x m cos( ω t + ψ ) otrzymaną z zaleŜności (1) wprowadzając podstawienie (15)

ϕ =ψ +

π
2

(16)

Zbudujmy portret fazowy drgań harmonicznych. Zmienna ν (t ) w tym przypadku przyjmuje kształt

ν ( t ) = x ( t ) = − x m ω sin( ω t + ψ )
Wektor x postaci (13) ma postać x (t ) = [ x m cos( ω t + ψ )]i + [ − x m ω sin( ω t + ψ )] j Na podstawie (15) i (17) otrzymujemy związek

.

(17)

(18)

x2 +

1

ω

2

ν

2

= xm

2

(19)

który jest równaniem elipsy (rys.3).

ω Xm
x(t)
-X m

. X

0

Xm

X

−ω X m
Rys. 3. Ruch harmoniczny w opisie wektorowej funkcji okresowej. Portret fazowy sygnału harmonicznego.

6

Z definicji (15) otrzymujemy x ( t ) = x m cos( ω t ) cos ψ − x m sin( ω t ) sin ψ = a cos( ω t ) + b sin( ω t ) gdzie a = x m cos ψ , b = − x m sin ψ (20) (21)

ZauwaŜmy, Ŝe postacie (1), (15), (20) przedstawiają tę samą funkcję (rys.1) w róŜny sposób. Postać (1) przedstawia ją za pomocą stałych xm , ω , ϕ , postać (15) xm , ω ,ψ , postać (20)
zaś – stałych a,b, ω . Związki między kaŜdą trójką tych stałych są jednoznacznie określone wzorami (16), (21). W wielu przypadkach, głównie dla wygody przekształceń) wygodniej jest sygnał harmoniczny przedstawić w postaci zespolonej. Postać tę moŜna wyprowadzić na podstawie elementarnych wiadomości z teorii liczb zespolonych. KaŜdą liczbę zespoloną z zapisuje się jako sumę jej części rzeczywistej i urojonej, to jest następująco

z = R z + jI z

(22)

gdzie j = − 1 jest tzw. jednostką urojoną. R z, I z zaś są dowolnymi liczbami rzeczywistymi,

zwanymi

R z - część rzeczywista liczby z , I z - część urojona liczby z .
Wartości tych liczb jednoznacznie określają liczbę zespoloną. Liczbę z moŜna zilustrować na tzw. płaszczyźnie zespolonej (rys. 4 ). Wprowadzając współrzędne biegunowe ρ zapisać w postaci z = R z + jJ z = ρ cos ϕ + jρ sin ϕ = ρ (cos ϕ + j sin ϕ ) = ρ e jϕ gdzie ρ = ( R z ) 2 + ( I z ) 2 jest modułem liczby z oznaczonym z = ρ , a ϕ = arc tg ( (23) i ϕ (por. rys. 4 ), liczbę tę moŜna takŜe

Iz )Rz

argumentem z ( arg z ). Dwie liczby zespolone z1 i z 2 są równe, gdy

R z1 = R z 2 I z 1 = I z 2 , albo ρ1 = ρ 2 , ϕ1 = ϕ 2 .

(24)

7

Iz z=Rz+jIz

ρ =|Z|

0

Rz

Rys. 4. Interpretacja wektorowa liczby zespolonej. Liczbę zespoloną sprzęŜoną z
*

z liczbą z nazywamy taką liczbę zespoloną, dla której

spełnione są warunki (por. rys. 4) R z = R z , I z = − I z albo | z |=| z | arg z = − arg z .
* * * *

(25)

Z powyŜszych definicji wynika, Ŝe suma dwu dowolnych liczb zespolonych sprzęŜonych ze

sobą jest zawsze liczbą rzeczywistą równą

z + z = R z − jI z + R z + jI z = 2 R z
*

(26)

Twierdzenie to jest podstawą rozłoŜenia funkcji rzeczywistej x(t) na dwie funkcje zespolone wzajemnie sprzęŜone z (t ), z (t ). ZałóŜmy, Ŝe funkcja x(t) ma postać harmoniczną (15). Funkcję tę zapiszemy w postaci sumy dwu liczb (funkcji) zespolonych x(t ); x (t ) wzajemnie sprzęŜonych:
x ( t ) = x m cos( ω t + ψ ) = x ( t ) + x ( t )
*

*

*

(27)

Zapisując funkcje zespolone x(t ); x (t ) w postaci wykładniczej, otrzymamy

*

x ( t ) + x ( t ) = ρ ( t ) e jϕ ( t ) + ρ ( t ) e − jϕ ( t )
*

(28)

co wg wzoru Eulera (zaleŜność e jϕ = cos ϕ + j sin ϕ ) daje

x ( t ) + x ( t ) = 2 ρ ( t ) cos ϕ ( t )
*

(29)

Z porównania związków (27) i (29) otrzymujemy:

ρ (t ) =

xm = const ϕ ( t ) = ω t + ψ 2

8

skąd:

x (t) =

xm e 2

j ( ω t +ψ )

x (t) =
*

x m − j ( ω t +ψ ) e 2

(30)

Korzystając z wyników (30) funkcję harmoniczną (27) moŜna zapisać w postaci

x (t ) = x (t ) + x (t ) =
*

x m j (ωt +ψ ) x m − j ( ωt + βψ ) x x e + e = ( m e jψ ) e jω t + ( m e − jψ ) e − jω t 2 2 2 2
x (t ) = X e jωt + X *e − jωt (31)

skąd moŜna zapisać

gdzie przez X oznaczono tzw. amplitudę zespoloną równą X = x m jψ e 2 X* = xm − jψ e 2 (32)

Na rys. ( 5 ) przedstawiono ilustrację graficzną zapisu zespolonego (31) funkcji harmonicznej (27), przy czym przez X oznaczono moduł amplitudy X , tj. X =| X |= xm 2 (33)

Funkcję rzeczywistą x(t), w tym wypadku traktuje się jako długość „wektora” będącego sumą dwu „wektorów” x(t ) i x (t ) o jednakowych stałych modułach X (por. rys. 5) . „Wektory” te, obracają się w przeciwnych kierunkach ze stałą prędkością kątową ω , powodują,
*

Ŝe „wektor” wypadkowy opisujący ruch x(t) pozostaje zawsze na osi rzeczywistej, a jego
długość zmienia się harmonicznie zgodnie z postacią (27) (rys. 5). Bazę wielkości określających jednoznacznie ruch harmoniczny tworzą, w tym przypadku, częstość kołowa ω oraz dwie wielkości zespolone sprzęŜone X i X * . Posługiwanie się w analizie drgań zapisem zespolonym jest bardzo często wygodniejsze niŜ stosowanie tradycyjnego zapisu w postaci funkcji trygonometrycznych (1), (15), (20). Znacznemu uproszczeniu ulegają odpowiednie przekształcenia analityczne.

9

Ix(t) ωt+ψ x(t)=Xej(ωt+ψ) x(t)
0
*

Rx(t)

x (t) T=2π/ω

0 .5

t

x(t)
1

-xm
1 .5 2 1 0 x( t )

xm t
1 2

Rys. 5. Graficzna interpretacja postaci zespolonej drgań harmonicznych. Rozpatrzmy dla przykładu sumę dwóch dowolnych drgań harmonicznych x1 (t ) i x2 (t ) . Dla wygody będziemy korzystać z postaci zespolonej tych drgań, przy czym zanalizujemy jeden z wektorów sprzęŜonych pamiętając, Ŝe drugi zachowuje się analogicznie. WyraŜając sumę drgań x s (t ) = x1 (t ) + x 2 (t ) w postaci

x s (t ) = x(t ) + x (t ) = X s e jψ + X s e − jψ = As cosψ
*

(34)

gdzie As = 2 X s moŜemy napisać: (35)

X s e jψ = X 1 e j ( ω 1t + ϕ 1 ) + X 2e j ( ω 2 t + ϕ 2 ) X s e − jψ = X 1 e − j ( ω 1t +ϕ 1 ) + X 2e − j ( ω 2 t +ϕ 2 )
MnoŜąc stronami toŜsamości (36) i (37), otrzymujemy

36) 37)

X s = X 1 + X 2 + X 1 X 2 e j ( ∆ ω t + ∆ ϕ ) + X 1 X 2e − j ( ∆ ω t + ∆ ϕ ) =
2 2 2

= X 1 + X 2 + 2 X 1 X 2 cos( ∆ ω + ∆ ϕ ),
2 2

(38)

gdzie

∆ω = ω1 − ω 2 , ∆ϕ = ϕ1 − ϕ 2 .
10

Uwzględniając oznaczenie (35) otrzymujemy wzór określający amplitudę wypadkowych x s (t ) w postaci

As

drgań

As = 2 X s = 2 X 1 + X 2 + 2 X 1 X 2 cos( ∆ωt + ∆ϕ )
2 2 2

(39)

Następnie, rozkładając jedną z liczb (36) lub (37) na część rzeczywistą i urojoną, otrzymamy wzór określający fazę ψ . Z na przykład (36) uzyskamy: X s e jψ = X 1 [cos(ω1t + ϕ 1 ) + j sin(ω1t + ϕ 1 )] + X 2[cos(ω 2 t + ϕ1 ) + j sin(ω 2 t + ϕ 2 )] = X 1 [cos(ω1t + ϕ 1 ) + X 2 cos(ω 2 t + ϕ 2 )] + j{ X 1 [sin(ω1t + ϕ 1 ) + X 2 sin(ω 2 t + ϕ 2 ]} skąd otrzymujemy

ψ = arc tg

X sin(ω 1t + ϕ 1 ) + X 2 sin(ω 2 t + ϕ 2 ) I x (t ) = arc tg 1 X 1 cos(ω 1t + ϕ 1 ) + X 2 cos(ω 2 t + ϕ 2 ) R x (t )

(40)

ZaleŜności (39) i (40) jednoznacznie opisują ruch wypadkowy x s (t ) . Amplituda A s tego ruchu ulega okresowym zmianom o wartości T = As ∈ ( As min , A s max ) (por. rys. 6), gdzie As min = 2 | X 1 − X 2 |=| A1 − A2 | As max = 2 | X 1 + X 2 |= A1 + A2 WyraŜenie (40) jest dość skomplikowane. Rozpatrzmy więc dwa prostsze przypadki. Przypadek 1) `(41) (42) 2π ∆ω i przyjmuje wartości w przedziale

X1 = X 2 = X

ϕ1 ≠ ϕ 2

(43)

Po podstawieniu wyraŜenia (43) do wzoru (39) otrzymamy: As = 2 X 1 + X 2 + 2 X 1 X 2 cos( ∆ωt + ∆ϕ ) =| 4 X cos(
2 2

∆ω ∆ϕ t+ ) | . (44) 2 2

Z zaleŜności (44) wynika, Ŝe ruch amplitudy drgań wypadkowych jest ruchem periodycznym o okresie T = 2π / ∆ω . Wzór (40) będzie w tym przypadku miał następującą postać:

tgψ =

sin(ω1t + ϕ1 ) + sin(ω 2 t + ϕ 2 ) cos(ω1t + ϕ1 ) + cos(ω 2 t + ϕ 2 )

11

Oznaczając α = ω1t + ϕ 1 , β = ω 2 t +ϕ 2, mamy dalej: 2 2 = tg α + b α+β α−β 2 2 cos cos 2 2 2 sin

α+β

tgψ =

cos

α−β

skąd otrzymujemy wzór określający fazę ψ

ψ =

(ω 1 + ω 2 )t + ϕ 1 + ϕ 2 2

(45)

t

0 , 0.0005 .. 10

ω



x( t )

8 sin( 12 ω t )

4 sin( ω t )

As max
10

5

4

As min

x( t )

0 4 5

-As min

10

-As max
0 0.5 1 t 1.5 2 2.5

Rys. 6. Przebieg funkcji x s (t ) = x1 (t ) + x 2 (t ) sumy dwóch składowych harmonicznych o róŜnych częstościach, amplitudach i zgodnych fazach początkowych.

T=2π/∆ω

Podstawiając zaleŜności (44) i (45) do (34), otrzymamy równanie ruchu dla tego przypadku drgań w postaci: x s (t ) =| 4 X cos(

ω 2 − ω1
2

t+

ϕ1 − ϕ 2
2

) | cos(

ω 2 + ω1
2

t+

ϕ 2 + ϕ1 )
2

(46)

Równanie to określa drgania punktu dla przypadku 1), rys (7). Widać, Ŝe na falę nośną o częstości (ω 2 + ω1 ) / 2 nakłada się fala o częstości ( (ω 2 − ω 1 ) / 2.

12

Drgania o tej postaci tworzą tzw. falę modulowaną amplitudowo. W przypadku, gdy częstości drgań róŜnią się nieznacznie i znajdują się w zakresie częstości słyszalnej dla człowieka, drgania te wywołują charakterystyczne, często spotykane zjawisko dudnienia.
xs(t)
t 0 , 0.005 .. 10 ω 2 π x( t ) 6 sin( 4 ω t ) 6 sin( ( 3.6 ω t ) )

T=2π/(ω 2−ω 1)

10

5

x( t )

0

t

5

10 0 1 2 t 3 4 5

Rys. 7. Przykład funkcji okresowej opisującej drgania dla przypadku równych amplitud i nieznacznie róŜnych częstości składowych sumy dwóch drgań. Ilustracja zjawiska dudnienia. Przypadek 2)

X1 ≠ X 2

ω1 = ω 2 = ω

ϕ1 = ϕ 2 = ϕ

(47)

W tym przypadku na podstawie (44) mamy: As = 2( X 1 + X 2 ) = A1 + A2 (48)

a więc stałą amplitudę równą sumie amplitud drgań składowych. Podstawiając warunki (47) do (40), otrzymujemy wzór określający fazę:

ψ = ωt + ϕ
i funkcja opisująca ruch jest zwykłą cosinusoidą o postaci x s (t ) = ( A1 + A2 ) cos(ωt + ϕ ). (49)

13

RozwaŜania analityczne, dotyczące sumowania drgań harmonicznych, moŜna zastąpić rozwaŜaniami geometrycznymi,
n

jeśli

przedstawi

się

kaŜdą

z

harmonik

xi = x mi cos(ω i t + ϕ i ) sumy x s = ∑ xi w postaci wektora o module x m i nachyleniu (ω i t + ϕ i ).
i =n

Z sumy dwóch wektorów (rys. 8) wynika wzór (44) określający amplitudę As .
Iz

As

A2

ψ=ω t +φ
2 2

ψ=ω t+φ A1 ψ =ω t +φ
1 1 1

2

Rz

xs (t)=A cos ψ
s

Rys. 8. Geometryczna interpretacja sumy dwóch drgań harmonicznych o jednakowych częstościach.

Operacja róŜniczkowania i całkowania sygnału harmonicznego w postaci zespolonej wygląda następująco; j [( ω t + φ ) + = vm e

π
2

v (t ) =

d dt

xm e

j (ω t + φ )

= jω x m e

j (ω t + φ )

] (50)

x (t ) = ∫ vm e
gdzie:

j (ωt + φ )

j[(ωt + φ ) − ] v j (ωt + φ ) v j (ωt + φ ) 2 dt = m e =−j m e = xm e jω ω

π

(51)

1 = −j, j

jπ j=e 2,

− jπ −j =e 2 ,

1= e

j⋅0

,

−1 = e

j⋅+ π −

.

14

Energia drgania w ruchu harmonicznym.
Gdy punkt materialny przytrzymywany w połoŜeniu równowagi siłami spręŜystymi zaczyna drgać, jego energia składa się z energii potencjalnej i kinetycznej. Energia potencjalna występuje dzięki istnieniu sił wewnętrznych, energia kinetyczna – poniewaŜ punkt porusza się z pewną prędkością. Aby obliczyć całkowitą energię układu, naleŜałoby obliczyć energię potencjalną, jaką punkt ma w danej chwili, następnie energię kinetyczną i dodać je. PoniewaŜ siła działająca na punkt zmienia się podczas wychylania, trzeba by w tym przypadku uŜyć rachunku całkowego. Uprościmy sobie to zagadnienie korzystając z faktu, Ŝe są takie chwile, gdy układ ma tylko energię kinetyczną, to znaczy jego całkowita energia równa się energii kinetycznej. Zachodzi to w chwilach, gdy punkt drgający przechodzi przez połoŜenie równowagi, a więc jego wychylenie równa się zeru. Ze wzoru na wychylenie x (t ) = x m sin( ω t ) widać, Ŝe to następuje w chwilach, gdy sin(ωt ) = 0 , a więc gdy

(52)

ω t = 0 , 2 π ,3π ,....

Prędkość ruchu drgającego

v =

dx = A ω cos( ω t ) dt
+ + Aω , poniewaŜ cos πn = 1 . − −

(53)

W wyŜej wymienionych chwilach Energia kinetyczna

v=

Ek =

mv 2 mA 2ω 2 = 2 2

(54)

PoniewaŜ całkowita energia w wymienionych chwilach równa się energii kinetycznej,

15

moŜemy więc napisać mA 2ω 2 4π 2 mA 2 f = 2 2

E =

2

(55)

Z tego wzoru widać, Ŝe energia punktu drgającego jest proporcjonalna do masy tego punktu, do kwadratu amplitudy jego wychylenia i kwadratu częstości drgań.

Sygnały poliharmoniczne
Sygnałami poliharmonicznymi nazywamy takie typy sygnałów okresowych, które powtarzają dokładnie swoje wartości w jednakowych przedziałach czasowych i opisane są zaleŜnością x(t ) = x(t + nT p ) gdzie n = 1,2,3.... Tak jak w przypadku sygnału harmonicznego, przedział czasu, w ciągu którego zachodzi jedno pełne drganie (pełny cykl), nazywa się okresem Tp. Sygnały poliharmoniczne, z nielicznymi wyjątkami, moŜna rozwinąć w szereg Fouriera. PoniewaŜ szereg Fourier jest funkcją okresową to moŜemy zapisać go zgodnie z czterema (56)

róŜnymi sposobami zapisów funkcji harmonicznej (por. wzory (1), (15), (20), (31))
następującym wzorem

x ( t ) = ∑ 2 X k cos( kω 1t + ψ k ) = ∑ (a k cos( kω 1t ) + bk sin( kω 1t )) =
k =0 k =1





= ∑ 2 X k sin( kω 1t + ϕ k ) = ∑ [ X k e
k =0 k =0





(57)
jkω1t

+X e
* k

− jkω1t

],

gdzie dla k=0 moŜna przyjąć 2 X 0 cosψ 0 = a 0 = 2 X 0 sin ϕ 0 = X 0 + X 0 = x0
*

(58)

Funkcje spełniające warunki, zwane warunkami ortogonalności umoŜliwiają proste wyznaczenie wzorów wyraŜających stałe współczynniki a k , bk o postaci:

16

1 a0 = T

t0 +T

∫ x(t )dt,
t0

ak

2 = T

t0 + T

∫ x ( t ) cos
t0 + T

k ω 1 tdt ,

( k = 1 , 2 , 3 ..),

t0

2 bk = T

∫ x ( t ) sin(

k ω 1 t ) dt ,

( k = 1 , 2 , 3 ..)

(59)

t0

Jak wynika ze wzoru (57), sygnały poliharmoniczne składają się ze składowej stałej x0 i nieskończonej liczby składowych sinusoidalnych, nazywanych

harmonicznymi,

o amplitudach xk i fazach początkowych φk.. Częstotliwości wszystkich harmonicznych stanowią całkowite wielokrotności częstotliwości podstawowej ω 1 = podstawowy Tp moŜna wyrazić zaleŜnością 2π . Wzór na okres Tp

T1n1 =T2n2 =...... T1n1 =Tp =
gdzie n1 , n2 ,.... nk są liczbami naturalnymi.

(60)

Przykładem sygnału poliharmonicznego moŜe być sygnał opisany funkcją y(t) = ω t dla 0 <ω t < 2π (rys. 9). Jak widać na rys. 9, dokładność odwzorowania funkcji zaleŜy od liczby składowych harmonicznych szeregu Fouriera aproksymującego sygnał. Zakładając stałą dokładność aproksymacji sygnału za pomocą szeregu Fouriera zauwaŜymy, Ŝe dla róŜnych postaci sygnału wymagana jest inna liczba składowych harmonicznych. Sygnały o szybkich zmianach wartości, zwłaszcza takie, które posiadają punkty nieciągłości w formie ostrych załamań i „pików”, potrzebują do odwzorowania duŜej liczby harmonik. O takich sygnałach mówi się, Ŝe posiadają szeroką charakterystykę widmową lub mają „szerokie widmo”. W przypadkach przebiegów okresowych załamania takie są wyrazem istnienia składowych o wysokich częstotliwościach. Sygnały o łagodnym przebiegu lub o „zaokrąglonych kształtach” zawierają stosunkowo niewielką liczbę harmonik i nazywa się je sygnałami o szybkozbieŜnej charakterystyce widmowej lub sygnałami o „wąskim widmie”. W innych przypadkach, moŜe nie istnieć składowa o częstotliwości podstawowej ω1. ZałóŜmy na przykład (rys. 10), Ŝe sygnał okresowy powstał w wyniku superpozycji trzech sygnałów harmonicznych o częstotliwościach odpowiednio 6, 7.5, 10 [Hz]. Największy

wspólny podzielnik tych liczb równy jest 0.5 [Hz], a więc okres wynikowego sygnału
17

okresowego Tp = 2 [s]. Po rozwinięciu w szereg Fouriera wartości amplitud xk będą równe zeru dla wszystkich n oprócz n = 12, n = 15, n = 20. Zjawiska fizyczne, którym odpowiadają sygnały poliharmoniczne, występują znacznie częściej niŜ zjawiska opisywane za pomocą zwykłej funkcji harmonicznej. Zaliczając dany sygnał do grupy sygnałów harmonicznych dokonuje się na ogół pewnego przybliŜenia, poniewaŜ rozpatrywany sygnał jest -ściśle biorąc- sygnałem poliharmonicznym. W pewnych przypadkach mogą istnieć w fizycznym sygnale okresowym składowe harmoniczne nawet o stosunkowo duŜych amplitudach. Przykładem mogą być wibracje wielocylindrowego silnika tłokowego, które wykazują przewaŜnie silnie uwydatnione składowe harmoniczne. Najczęściej uŜywanymi wartościami, które słuŜą do oznaczania poliharmonicznych sygnałów okresowych są:

wartość szczytowa xp - największa wartość sygnału mierzona od połoŜenia zerowego, wartość międzyszczytowa xpp - róŜnica między wartością maksymalną a minimalną, wartość średnia określona wzorem

x śr =

1 T

T


0

x ( t ) dt

(61)

wartość skuteczna określona wzorem

x sk =
2

1 T

T

∫x
0

2

(t )dt

(62) 1 * xm . 2

Dla sygnału harmonicznego wartość średnia x úr =

π

* x m a wartość skuteczna xsk =

Uwaga: Większość popularnych przyrządów do pomiarów amplitudy sygnału, takich jak
woltomierze i amperomierze, mierzy wartość średnią z wartości bezwzględnej sygnału chodź wyskalowane są w wartościach skutecznych. Pomiar wartości skutecznej sygnału takimi przyrządami jest poprawny tylko dla sygnałów harmonicznych gdzie stosunek

x sk ≅ 11 = const . Dla poliharmonicznych sygnałów okresowych stosunek wartości skutecznej , x œr
do wartości średniej nie jest stały i zaleŜy od postaci sygnału. Zaleca się, w miarę moŜliwości unikanie posługiwaniem się wartością średnią sygnału jako estymatorem jednopunktowym bardziej obciąŜonym.

18

n n
3

y(t)

π

2.

k =1

sin ( k . ω . t ) k

5

y( t)

0 0 1 2 3 4 5 6 7 8

t

n n
10

y(t)

π

2.

k =1

sin ( k . ω . t ) k

5

y( t)

0 0 1 2 3 4 5 6 7 8

t

n n
30

y(t)

π

2.

k =1

sin ( k . ω . t ) k

5

y( t)

0 0 1 2 3 4 5 6 7 8

t

Rys. 9. Przykład odwzorowanie funkcji y ( t ) = ω t przy pomocy róŜnej liczby wyrazów szeregu Fouriera Jak wspomniano wcześniej, sygnały okresowe moŜna uzyskać sumując fale sinusoidalne o współmiernych częstotliwościach. Jednak sygnały, które powstały w wyniku sumowania fal sinusoidalnych o dowolnych częstotliwościach, nie są na ogół sygnałami okresowymi. Mówiąc dokładniej, suma dwóch lub więcej fal sinusoidalnych tworzy sygnał okresowy tylko w tym przypadku, gdy stosunki wszystkich moŜliwych par częstotliwości wyraŜają się liczbami wymiernymi. Oznacza to, Ŝe istnieje pewien podstawowy okres Tp spełniający warunek określony wzorem (60).

19

Rys. 10. Przykład funkcji nie zawierającej częstotliwości podstawowej ω1 .

Rys. 11. Przykład graficznej prezentacji najczęściej stosowanych wartości opisujących sygnały poliharmoniczne Natomiast sygnał

x (t ) = x1 sin(1t + φ1 ) + x 2 sin( 2t + φ 2 ) + x3 sin( 5t + φ 3 )

(63)

nie jest sygnałem okresowym, poniewaŜ liczby zawarte w stosunkach częstotliwości składowych 1 2 , , są niewymierne (okres podstawowy Tp jest równy nieskończoności). W 2 5

takim przypadku sygnały takie nazywamy prawie okresowymi lub pseudookresowymi, 20

gdyŜ warunek (60) nie jest spełniony dla jakiejkolwiek skończonej wartości Tp. W praktyce pomiarowej i obliczeniowej liczby niewymierne podajemy z pewnym zaokrągleniem 2π dziesiętnym. JeŜeli np. przyjmiemy, Ŝe T1 = 2 π ≈ 6.3 , T2 = 2 π ≈ 4 .4 , T3 = ≈ 2.8 , 5 2 to uwzględniając wzór (60) otrzymamy, Ŝe wspomniany sygnał jest sygnałem okresowym o okresie T p = 6.3 * 308 = 4.4 * 441 = 2.8 * 693 = 1940.4[ s ] . Oczywistym jest, Ŝe im mniejsze przyjmiemy zaokrąglenia dziesiętne tym większe otrzymamy wartości okresu Tp. W zasadzie, wszystkie sygnały złoŜone z sumy sygnałów harmonicznych moŜemy traktować jako sygnały okresowe o odpowiednio długim okresie. Niemniej, podział sygnałów na okresowe i pseudookresowe lepiej jest zachować i sygnały okresowe nie posiadające składowej będącej częstotliwością podstawową ω1 powinno się traktować jak sygnały pseudookresowe.

Krzywe Lissajous
Dotychczas sumowaliśmy składowe harmoniczne wzdłuŜ jednej osi czasu t. Często postrzegamy punkty drgającego ciała poruszające się po torach przestrzennych lub płaskich. Taki ruch punktów drgającego ciała sprowadza się do geometrycznego sumowania składowych harmonicznych w przestrzeni lub na płaszczyźnie. Wzory opisujące ruch punktu są parametryczną formą równania toru punktu o współrzędnych x(t), y(t), z(t), gdzie czas t jest parametrem. W przypadku sumowania sygnałów w układzie współrzędnych ortogonalnych ( na kierunkach prostopadłych do siebie) otrzymamy:

x (t ) =

∑x
k =1

nx

mk

sin( ω x k t + φ x k )

y (t ) =

∑y
k =1

ny

mk

sin( ω y k t + φ y k )

z (t ) =

∑z
k =1

nz

mk

sin( ω z k t + φ z k )

(64)

gdzie: nx, ny, nz - liczby składowych harmonicznych w kierunkach osi x, y, z; xmk , ymk , zmk -amplitudy składowych w kierunkach osi x, y, z;

21

φ x , φ y , φ z - fazy początkowe składowych w kierunkach osi x, y, z;
k k k

ω x , ω y , ω z - częstości kołowe składowych w kierunkach osi x, y, z.
k k k

Otrzymane

na

podstawie

równań

(64)

tory

nazywamy

krzywymi

Lissajous

lub

figurami Lissajous. Obserwacje krzywych Lissajous stanowią wygodną metodę badania
postaci drgań. W przypadkach gdy stosunki częstości składowych sygnałów są liczbami wymiernymi, tory ruchu punktów są krzywymi zamkniętymi (por. rys. 13). Oznacza to, Ŝe ruchu punktu w przestrzeni lub na płaszczyźnie odbywa się po tym samym torze w chwili gdy parametr jakim jest czas t = Tp. Inaczej mówiąc, dla wartości czasu t ≥ Tp postać krzywej Lissajous nie ulegnie zmianie. Tor ruchu punktu będący wynikiem sumowania składowych o okresach wyraŜonych liczbami niewymiernymi będzie krzywą otwartą. Jest to tor punktu charakterystyczny dla ruchu pseudookresowego (prawie okresowego). Dla wartości czasu t → ∞ tor krzywej Lissajous moŜe przebiegać przez wszystkie punkty przestrzeni ograniczone wielkościami xmk , ymk , zmk (por. rys. 12). Podsumowując, cecha sygnału jaką jest okresowość albo pseudookresowość widoczna jest nie tylko w dziedzinie czasu ale takŜe w kształcie torów przestrzennych drgającego punktu (figur Lissajous).

y( t ) t
2

2 . sin

5. ω . t t

x( t ) 0 , .05.. 40

5. sin( ω . t )

0 , .05.. 7
2

t
2

0 , .05.. 800

0

0

0

2 5 0 5

2 5 0 5

2 5 0 5

Rys. 12. Figury Lissajous, na płaszczyźnie, przy róŜnych czasach obserwacji dla składowych, których stosunek częstości nie jest liczbą wymierną .

22

Rys. 13. Figury Lissajous dla ruchu harmonicznego przy róŜnych stosunkach częstotliwości i róŜnych fazach drgań składowych.

23

Sygnały stochastyczne oraz ich charakterystyki.
Sygnałem stochastycznym jest nazywany sygnał, którego wartości dla kaŜdej chwili są zmiennymi przypadkowymi. Obserwując taki sygnał w danym układzie dynamicznym, uzyskuje się pewien konkretny przebieg, zwany realizacją procesu stochastycznego. Zbiór wszystkich realizacji takiego przebiegu jest nazywany procesem stochastycznym. Proces stochastyczny nazywa się stacjonarnym, jeśli jego własności statystyczne nie zaleŜą od czasu. Dla większości procesów stacjonarnych obowiązuje tzw. twierdzenie ergodyczne, według którego uśrednianie wartości sygnału względem róŜnych realizacji moŜna zastąpić uśrednianiem względem czasu.

Stacjonarne procesy losowe.
Z punktu widzenia teorii procesów losowych zjawisko fizyczne moŜna opisać w dowolnej chwili, obliczając wartości średnie w zbiorze funkcji losowych, reprezentujących dany proces. Rozpatrzmy zbiór funkcji losowych tworzących proces losowy przedstawiony na rys. .

24

Wartość średnią (pierwszy moment) procesu losowego w pewnej chwili t1 moŜna
wyznaczyć za pomocą sumowania wartości chwilowych kaŜdej funkcji losowej zbioru w chwili

t1 i podzielenia tej sumy przez liczbę funkcji losowych. W analogiczny sposób korelację
(moment łączny zmiennej losowej) między wartościami procesu losowego w dwóch róŜnych chwilach (zwaną funkcją autokorelacji) wyznacza się metodą uśrednienia w zbiorze iloczynów wartości chwilowych procesu w chwilach t1 i t1 + τ . Inaczej mówiąc, wartość średnią µ x (t1 ) i funkcję autokorelacji R x (t 1 , t1 + τ ) procesu losowego {x(t)} wyznacza się z zaleŜności

µ x (t1 ) = lim N →∞
Rx (t1 ,t 1+τ ) = lim N →∞ 1 N

1 N
N

∑x
k =1 k

N

k

(t1 )

(65)

∑x
k =1

(t1 ) xk (t1 + τ )

(66)

przy czym sumując zakłada się, Ŝe wystąpienie kaŜdej funkcji losowej jest jednakowo prawdopodobne. W ogólnym przypadku, gdy wartości funkcji µ x (t 1 ) i R x (t1 , t1 + τ ) określone równaniami (65, 66) zmieniają się wraz ze zmianą czasu, proces losowy {x(t)} nazywa się

niestacjonarnym. W szczególnym przypadku, gdy

µ x (t1 ) i R x (t1 , t1 + τ ) nie zaleŜą od czasu

t1 , proces losowy {x(t)} nazywa się słabo stacjonarnym lub stacjonarnym w szerszym sensie.
Wartość średnia słabo stacjonarnych procesów jest stała, a funkcja autokorelacji zaleŜy tylko od przesunięcia τ , tj. µ x (t1 ) = µ x i R x (t1 , t1 + τ ) = R x (τ ) . Dla procesu losowego {x(t)} moŜna obliczyć nieskończony zbiór momentów wyŜszych rzędów i momentów łącznych; ich pełny zbiór opisuje rozkład probablistyczny procesu. Gdy wszystkie moŜliwe momenty oraz momenty łączne nie zaleŜą od czas, proces {x(t)} nazywa się

ściśle stacjonarnym lub stacjonarnym w węŜszym sensie. Dla wielu praktycznych przykładów
stwierdzenie słabej stacjonarności procesu usprawiedliwia przyjęcie wniosku o ścisłej stacjonarności.

25

Ergodyczne procesy losowe
W większości przypadków moŜna opisywać właściwości stacjonarnego procesu losowego metodą uśredniania w czasie poszczególnych funkcji losowych zbioru. Rozpatrzmy na przykład k-tą funkcję losową procesu losowego, przedstawionego na rys. . Średnią wartość µ x (k ) i

funkcję autokorelacji R x (τ , k ) k-tej funkcji losowej określa się następującymi wyraŜeniami:

µ x ( k ) = limT →∞
Rx (τ , k ) = lim T →∞
T

1 xk (t )dt T∫ 0

T

67

1 xk (t ) x k (t + τ )dt T∫ 0

68

JeŜeli proces losowy x(t) jest stacjonarny i wartości µ x (k ) i R x (τ , k ) określone wzorami(67), (68) są jednakowe dla róŜnych funkcji losowych, to taki proces losowy nazywa się ergodyczny. Dla ergodycznego procesu losowego wartość średnia i funkcja autokorelacji (jak równieŜ i inne momenty, uzyskane przez uśrednienie w czasie) równają się odpowiednim

średnim w zbiorze, a więc µ x ( k ) = µ x i R x (τ , k ) = R x (τ ) . NaleŜy zauwaŜyć, Ŝe tylko procesy
stacjonarne mogą wykazywać cechę ergodyczności (rozwaŜa się takŜe dla procesów niestacjonarnych ergodyczność względem danego momentu). Ergodyczne procesy losowe stanowią, oczywiście, waŜną klasę procesów losowych, poniewaŜ wszystkie właściwości losowych procesów ergodycznych mogą być określone przez uśrednienie w czasie jednej funkcji losowej (sygnału obserwowanego). Na szczęście w

praktyce procesy losowe odpowiadające stacjonarnym zjawiskom fizycznym są na ogół ergodyczne. Z tego teŜ względu w większości przypadków moŜna prawidłowo wyznaczyć charakterystyki stacjonarnego procesu losowego na podstawie jednej realizacji.

Niestacjonarne procesy losowe

Do procesów niestacjonarnych zalicza się wszystkie procesy losowe, które nie spełniają wymagań dotyczących stacjonarności wyliczonych we wzorach 65, 66. O ile nie wprowadzono specjalnych ograniczeń, to charakterystyki niestacjonarnego procesu losowego są funkcjami czasu, które moŜna określić tylko przez uśrednienie wartości chwilowych w zbiorze funkcji losowych tworzących ten proces. W praktyce nie moŜna na ogół uzyskać dostatecznie duŜej

26

liczby realizacji, niezbędnej dla dokładnego pomiaru charakterystyk przez uśrednienie w zbiorze. Okoliczność ta utrudnia rozwój praktycznych metod pomiaru i analizy niestacjonarnych procesów losowych. W wielu przypadkach moŜna jednak wydzielić w klasie niestacjonarnych procesów losowych, odpowiadających realnym zjawiskom fizycznym specjalne kategorie

niestacjonarności, co upraszcza zadanie pomiaru i analizy. Na przykład niektóre zjawiska o charakterze losowym mogą być opisane niestacjonarnym procesem losowym {y(t)}, którego kaŜda funkcja losowa ma postać y(t)=A(t)x(t), gdzie x(t) jest funkcją losową stacjonarnego procesu losowego {x(t)}, a A(t) jest zdeterminowanym mnoŜnikiem. Innymi słowami, taki proces zalicza się do niestacjonarnych procesów losowych, których funkcje losowe cechują się wspólnym zdeterminowanym trendem czasowym. JeŜeli niestacjonarny proces odpowiada konkretnemu modelowi takiego typu, to do jego opisu nie trzeba dokonywać uśredniania w zbiorze. RóŜne wymagane charakterystyki procesu moŜna niekiedy ocenić na podstawie jednej funkcji losowej, jak to ma miejsce dla procesów ergodycznych.

Stacjonarne sygnały obserwowane

Rozpatrywane wcześniej pojęcie stacjonarności, związane jest z uśrednieniem w zbiorze charakterystyk procesu losowego. W praktyce często mówi się o stacjonarności lub niestacjonarności jednego sygnału obserwowanego procesu losowego. Stosuje się tu nieco odmienne pojęcie stacjonarności. Gdy mówi się o stacjonarności jednej realizacji, to oznacza,

Ŝe charakterystyki wyznaczone dla krótkich przedziałów czasu następujących po sobie nie
zmienią się znacznie. WyraŜenie „znacznie” oznacza, Ŝe zaobserwowane zmiany są większe niŜ moŜna by tego oczekiwać, uwzględniając typową statystyczną zmienność losową. Dla wyjaśnienia tego zagadnienia rozpatrzmy pojedynczy sygnał obserwowany x(t) k-tej funkcji losowej procesu losowego {x(t)}. ZałóŜmy, Ŝe wartość średnią i funkcję autokorelacji uzyskuje się przez uśrednianie w czasie w krótkim przedziale o długości trwania T w chwili początkowej t1 : 1 µ x (t1 , k ) = T 1 Rx (t1 + τ , k ) = T
t1 +T t1 +T

∫x
t1

k

(t )dt

69

∫x
t1

k

(t ) x k (t + τ )dt

70

27

W ogólnym przypadku, gdy charakterystyki losowe określone wzorami (69), (70) zmieniają się znacznie przy zmianie chwili początkowej t1 , sygnał obserwowany uwaŜa się za niestacjonarny . W przypadku, gdy charakterystyki te nie zmieniają się znacznie przy zmianie

t1 , sygnał obserwowany uwaŜa się za stacjonarny.
NaleŜy zaznaczyć, Ŝe odcinek realizacji ergodycznego procesu losowego jest stacjonarny. JeŜeli załoŜenie o ergodyczności jest uzasadnione (jak to ma miejsce dla większości realnych stacjonarnych zjawisk fizycznych), to stwierdzenie stacjonarności jednego sygnału

obserwowanego moŜe stanowić dostateczne uzasadnienie dla załoŜenia stacjonarności i ergodyczności procesu losowego, do którego naleŜy dany sygnał obserwowany.

Główne charakterystyki sygnałów losowych

Do opisania głównych właściwości sygnałów losowych stosuje się cztery funkcje statystyczne: 1) wartość średniokwadratową, 2) funkcję gęstości prawdopodobieństwa, 3) funkcję autokorelacji, 4) funkcję widmowej gęstości mocy. Wartość średniokwadratowa daje elementarne pojęcie o intensywności procesu. Gęstość prawdopodobieństwa charakteryzuje właściwości procesu w dziedzinie wartości amplitud. Funkcja autokorelacji i funkcja gęstości widmowej mocy dają podobną informację o procesie w dziedzinie odpowiednio czasowej i częstotliwościowej. Pod względem formalnym funkcja autokorelacji procesu stacjonarnego nie zawiera dodatkowej informacji w porównaniu z funkcją widmowej gęstości mocy, gdyŜ związane one są ze sobą wzajemnie jednoznacznym przekształceniem Fouriera. Omówimy w sposób ogólny wymienione charakterystyki stacjonarnych procesów losowych. Zakładamy przy tym, Ŝe procesy te wykazują cechy ergodyczności, a więc dane charakterystyki moŜna wyznaczyć metodą uśredniania w czasie poszczególnych funkcji losowych.

28

Wartości średnie i wariancja
Elementarne pojęcie o intensywności dowolnego sygnału losowego daje wartość

średniokwadratowa, która jest wartością średnią kwadratu danego sygnału. Wartość średniokwadratową Ψx2 danego sygnału x(t) określa się zgodnie ze wzorem:

Ψx2 = lim T →∞

1 2 x (t )dt. 71 T∫ 0

T

Często stosuje się pojęcie wartości bezwzględnej pierwiastka kwadratowego z wartości

średniokwadratowej, zwanej wartością skuteczną.
Nieraz wygodnie jest rozpatrywać sygnał fizyczny w postaci sumy składowej statycznej, tzn. niezaleŜnej od czasu, i składowej dynamicznej lub fluktuacyjnej. Składową statyczną moŜna opisać przez wartość średnią, która jest pop prostu wartością średnią funkcji obserwowanej. Wartość średnia określana jest wzorem

µ x = limT →∞

1 x (t )dt T∫ 0

T

72

Składową dynamiczną moŜna opisać przez wariancję sygnału, która równa jest średniemu kwadratowi odchylenia jego wartości od wartości średniej, czyli
2 σ x = limT →∞

1 [ x (t ) − µ x ]2 dt T∫ 0

T

73

Wartość bezwzględna pierwiastka kwadratowego z wariancji nazywa się odchyleniem

standardowym. Otwierając nawiasy w funkcji podcałkowej (73) moŜna stwierdzić, Ŝe
wariancja równa jest róŜnicy między wartością średniokwadratową i kwadratem wartości

średniej, czyli
2 2 σ x = Ψx2 − µ x

74

Gęstość prawdopodobieństwa

Funkcję gęstości prawdopodobieństwa sygnału losowego określają prawdopodobieństwo zdarzenia polegającego na tym, Ŝe wartości sygnału w dowolnej chwili są zawarte w określonym przedziale. Rozpatrzmy pewną realizację jako funkcję czasu x(t), przedstawioną na rysunku ( ).

29

Prawdopodobieństwo tego, Ŝe wartość funkcji x(t) przypadają na przedział od x do x + ∆x, moŜna znaleźć wyznaczając stosunek Tx , gdzie Tx oznacza sumę przedziałów czasu, w T

których wartości sygnału znajdują się w przedziale ( x, x + ∆x ) w czasie trwania obserwacji T. Przy dąŜeniu T do nieskończoności stosunek ten coraz dokładniej opisuje prawdopodobieństwo takiego zdarzenia. MoŜna to zapisać w następujący sposób: Pr[ x ⟨ x (t ) ≤ x + ∆x ] = limT →∞ Tx T 75

Przy dostatecznie małych wartościach ∆x gęstość prawdopodobieństwa p(x) moŜna określić następującym przybliŜonym związkiem: Pr[ x ⟨ x (t ) ≤ x + ∆x ] ≈ p ( x ) ∆x lub ściślej p( x ) = lim ∆x →0 T Pr[ x ⟨ x (t ) ≤ x + ∆x ] 1 = lim ∆x →0 [limT →∞ x ] ∆x ∆x T 76

Gęstość prawdopodobieństwa jest zawsze funkcją rzeczywistą nieujemną.

30

 
statystyka