Теория вероятностей

Теория вероятностей применяется к ситуациям, когда существует неопределенность . Эти ситуации, например, включают

1.  Характеристика автомобильного движения на перекрёстке дорог (т.e., число автомобилей, которые пересекают перекрёсток в Санкт-Петербурге за интервал времени)

2.  Предсказание погоды в Москве

3.  Количество студентов, проходящих через университетскую площадь между 8:50 и 9:00 по понедельникам

4.  Броуновское движение молекул в a

(a)  медном проводе

(b)  в транзисторе

Обратите внимание, что последние две ситуации это явление, известное как шум, чьей характеристикой является функция температуры.

Во всех этих ситуациях мы могли бы построить приблизительные функции или предсказания для каждого из этих экспериментов . Тем не менее, мы никогда не смогли бы охарактеризовать их с абсолютной уверенностью, (т.e., детерминировано) через элементы теории вероятностей. Вот почему когда публикуется прогноз погоды, говориться, например, что

Шансы дождя завтра равны 40% В таких случаях это означает, что вероятность события дождя равна 0.4. Другие вероятностные характеристики включают include

•    В среднем 300 машин в минуту пересекают перекрёсток в полдень в субботу. Шансы, что так много машин пересекут перекрёсток в Санкт-Петербургев в 8:00 в воскресенье, очень малы

•    Средний шум в транзисторе равен 1μW

Ученые и инженеры применяют теорию вероятностей и случайных процессов к тем повторяющимся ситуациям в природе, где

1.  Мы можем приблизительно предсказать что может случиться.

2.  Мы не можем точно определить что может случиться

Всякий раз, когда мы не можем точно предсказать возникновение какого-то события, мы говорим, что такие события есть случайными. Случайные события происходят вследствие следующих причин

•    Все действующие силы неизвестны.

•    Недостаточно данных для условия задачи

•    Физические механизмы события настолько сложны, что прямое вычисление проблемы не представляется возможным

•    Существует несколько основных неопределенностей в физическом мире

Понятия теории вероятностей

Перед тем, как продолжить, необходимо определиться с некоторыми следующими важными понятиями

Определение 1 Эксперимент представляет собой набор правил, регулирующих конкретные операции, которые выполняются

Определение 2 Испытание это проведение этого эксперимента

Определение 3 Результат это результаты данного испытания

Определение 4 Событие это результат или любая комбинация результатов

Пример 1 Рассмотрим экспериментвыбора наугад одной карты из колоды с 52-мя игральными картами и записывание значения карты. Заметим, что правила хорошо определены

1.  У нас есть колода карт

2.  Кто-то выбирает карту

3.  Запись результата

Предположим, что кто-то решил провести эксперимент. Мы бы сказали, что он/она провела испытание. Результатом этого могло бы быть выбранная карта 3 пик (или 34♠). То есть, результат будет: 3♠. Другой результат может быть 10♥ или В♦. В самом деле, в этом испытании может быть 52 возможных результата. Событие - это набор возможных результатов. Так, 3♠ это событие. Однако, 10♥ тоже событие и В♦ событие также. Далее, {3♠, В♦}, {3♠, 10♥}, и {2♥, 5♣, K♥, Туз♦} также являются событиями. Любая комбинация возможных результатов - это событие. Заметьте, что для этого эксперимента существует 252 = 4.50359962737 x 1015 различных событий

Аксиоматическая теория вероятностей

На самом деле это приложение математической теории, называемой теорией меры. Обе теории используют

основные положения теории множеств.

Аксиоматическая теория вероятностей основана на триплете

(Ω,Ι,P) где

•    Ω есть выборочным множеством, которое является множеством возможных результатов

•    Ι есть сигма-алгебраили сигма-поле, которое является множеством всех возможных событий (или комбинацией результатов)

•    P есть функцией вероятности, которая мжет быть любым множеством функции, чья область определения есть Ω и диапазон - замкнутый единичный интервал [0,1] , т.e., любое число между 0 и 1, включая 0 и 1. Единственным требованием для выполнения этой функции является то, что она должна соблюдать следующие три правила

(a)   P [Ω] = 1

(b)  Пусть A будет любым событием в Ι, тогда P [A] ≥ 0

(c)   Пусть A и B будут два события в Ι такие, что A B = φ, тогда P [A U B] = P [A] + P [B]

Определение относительной частоты.

Подход к относительной частоте основан на следующем определении: предположим, мы проводим большое количество испытаний данного эксперимента. Вероятность наступления данного события будет, допустим A, и тогда следующий предел

где nA число наступления события и n число проведенных событий.

Например, мы проводим вышеизложенный эксперимент 10000 раз (n = 10000). Далее, предположим, что

событие A = {3♠} произошло 188 раз (nA = 188). Тогда

Когда n стремится к бесконечности (и предполагая, что карты не фальшивые), тогда отношение будет приближаться к вероятности A

Предположим, что событие B было множеством всех карт пик. Тогда

B = {Туз♠, 2♠, 3♠, 4♠, 5♠, 6♠, 7♠, 8♠, 9♠, 10♠, В♠, Д♠, K♠}

Теперь скажем, что событие B случается даже независимо от того, находится ли испытание в B. В этом случае, всякий раз, когда результат испытания содержит 4b, результат принадлежит B и мы говорим, что B случилось. Так, предпроложим что мы провели эксперимент 10000 раз, и событие B случилось 3000 раз. Тогда

Когда n увеличивается к бесконечности (и предполагая, что карты не фальшивые), тогда отношение будет приближаться к вероятности B

Заметьте, что это определение верно. Так как P [B] = ¼, следует, что шансы что B произойдёт в любом испытании равны 25%. Аналогично, шансы 4♦ случающегося в определённом испытании равны (1/52) ♠ 100 или 1.9%. Однако, заметьте, что вероятность любого события будетвсегда числом между 0 и 1. Сейчас, предположим, что событие C состоит из множества всех карт масти бубён. Тогда

C = {Туз♦, 2♦,3♦,4♦,5♦, 6♦,7♦, 8♦,9♦,10♦, В♦, Д♦, K♦}

Посмотрим на B и C. Заметьте, что ни один из членов B не принадлежит к C и ни один из членов в C не принадлежит к B. Мы говорим, что B и C непересекающиеся и что их пересечние это пустое множество

В ∩ C = φ

В этом случае вероятность наступления B или C , равна

(2)

где U - символ союза двух множеств. Заметьте, что (2) описывает принцип сложения вероятностей: Если два события не пересекаются, то вероятность их наступления равна сумме их вероятностей.

Наконец, пусть событие Ω равно всем возможным результатам. Мы называем Ω определённым событием иливыборочным множеством. Так как каждый возможный результат заключён в этом событии, nΩ = n. Поэтому

(3)

Пример 2 Предположим, что мы проводим эксперимент подбрасывания монеты (дважды) и наблюдаем результат. Каковы возможные результаты? Составим список всех возможных событий. Предполагая, что все результаты равновероятны, определим вероятность каждого события. Множество всех возможных результатов

Ω = {OO, OР, РО, РР} Здесь 24 = 16 событий. Вот они:

{OO},{OР},{РО},{РР}

{OO, OР} , {OO, РО} , {OO, РР} , {OР, РО} , {OР, РР} , {РО, РР} {OO, OР, РО} , {OO, OР, РР} , {OO, РО, РР} , {OР, РО, РР} {OO, OР, РО, РР} , φ

Заметьте, что {OO, OР, РО, РР} есть определённое событие. Поэтому

P [{OO, OР, РО, РР}] = 1   (4)

Однако, из принципа сложения, следует, что

P [{OO, OР, РО, РР}] = P [{OO}] + P [{OР}] + P [{РО}] + P [{РР}]    (5)

но так как результаты одинаково равновероятны, то мы имеем, что

P [{OO}] = P [{OР}] = P [{РО}] = P [{РР}]      (6)

Поэтому из (5) и (6), следует, что

P [{OO}} = P [{OР}} = P [{РО}} = P [{РР}} = ¼    (7)

Используя принцип сложения вероятностей, мы видим, что

P [{OO, OР}] = P [{OO, TH}] = P [{OO, РР}] =

= P [{OР, РО}] = P [{OР, РР}] = P [{РО, РР}] = ½    (8)

P [{OO, OР, РО}] = P [{OO, OР, РР}] = P [{OO, РО, РР}] = P [{OР, РО, РР}] = 3/4        (9)

P[φ] = 0   (10)

Совместная вероятность

Пусть события D и E определены как следующие

D ={4♠, 2♣, 8♦, 4♠}

E ={4♥, K♠, 4♠, 2♣}

Заметьте, что

P[D] = 4/52 = 1/3

P[E] = 4/52 = 1/13

Тогда пересечение D и E есть другим событием, которое содержит элементы D и E

D ∩ E ={4♠, 2♠}

and

P[D ∩ E] = P[V,Ј] = P[D and E] = 1/16     (11)

Мы называем P [D E] = P [D, E] = P[D и E] совместной вероятностью D и E. Она описывает вероятность обоих происходящих событий

Условная вероятность

В ряде случаев, знания об одном событии дает нам дополнительную информацию о наступлении другого события. Предположим, что мы проводим эксперимент, и мы знаем, что D случилось. Таким образом, мы знаем, что результат был A♠, 2♣, 8♦), или 4♠. Говорит ли это нам что-то о наступлении E ?. Ответ - да.

Имея в виду, что D произошло, мы знаем, что результат был или A♠, 19♦, 8♦), или 4♠. Так как каждый результат равновероятен, мы имеем, что вероятность каждого из этих результатов, учитывая, что D произошло, равна ¼ или другими словами

P [A♠|D] = P [2♠|D] = P [8♦|D] = P [4♠|D] = ¼      (12)

Заметьте, что P [A|B] значит вероятность A с учетом того, что B произошло

Давайте теперь рассмотрим событие E = {4♥, K4(t, 4♠, 2♦}. Учитывая то, что D случилось и что возможные результаты были только A♠, 2♣, 8♣, or 4♣, мы можем сделать вывод, что результаты 4♥ и K♠ могли не случиться потому что 4♥ и K♠ не находятся в D. Поэтому

P[4♥|D] = P[K♣|D] = 0      (13)

Поэтому, учитывая, что D произошло, мы можем записать вероятность E следующим образом

P[E|D] = P[4♥|D] + P[K♣|D] + P[8♦|D]+P[4♠|D]

= 0 + 0 + ¼ + ¼ = ½

Мы также можем вычислить вероятность E , учитывая, что D произошло, используя следующее определение.

Определение 5 Пусть A и B два события одного эксперимента. Тогда условная вероятность A с данным B, P[A|B] определяется следующим образом

(15)

Если P [B] = 0, тогда P[A|B] неопределено. Итак, для случая E с данным D, мы имеем что

Подобным образом, для случая A с данным C мы имеем что

Еще один важный принципом вероятности является независимость.

Определение 6 Пусть A и B есть два события из одного эксперимента. Тогда A и B являются независимыми если совместная вероятность A и B равна произведениюих двух индивидуальных вероятностей.

P [A, B] = P [A] P [B]      (16)

Из этого следует, что

(17)

Это означает, если два события независимы, то наступление одного из них не изменяет вероятность наступления другого.

Случайные величины

Вы конечно же, заметили, что пока что мы оперировали с множествами и событиями, содержащими такие символы как 3♠, 4♠, 5♦, 6♥,.... В других примерах мы оперировали событиями

< each outcome a numberp> с другими значениями такими как {OO} для монет и {...} для игральных костей. Но теперь мы хотели бы

выполнить математический анализ и произвести действия над этими событиями. Однако, такая задача была бы затруднительной и не дала бы полного понимания.

Было бы гораздо лучше, если бы мы могли назначить каждому результату число. Мы могли бы работать с этими числа, используя стандартные математические методы.

Пример 3 Рассмотрим наш эксперимент с картами. Предположим, что каждой карте мы назначили целое число, как показано ниже

A♠->1

2♠->2

...

K♠->13

A♣->14

2♣->15

...

K♣->26

A♦->27

2♦->28

...

K♦->39

A♥->40

2♥->41

...

K♥->52

Тогда каждой карте присваивается целое число на числовой прямой. Положим, что мы выразили этот набор через функцию X (ζ), где ζ означает любой результат

Такое изображение называется случайной величиной.

Определение 7 Случайной величиной X (ζ) есть детерминированная функциякоторая назначает каждому результату ζ ε Ω в эксперименте число.

X : Ω -> R     (18)

Тогда P [X (ζ) = ∞] = P [X (ζ) = -∞] = 0

Первое, что вы можете заметить в случайных величинах это то, что

1.  Здесь нет ничего случайного

2.  Это не величина. Скорее, это набор функций.

Однако, при проведении анализа удобно рассматривать X (ζ) как величину. Рассмотрим второй пример случайной величины; так как случайная величина является функцией от результата, который имеет соответствующую вероятность, случайная величина также имеет соответствующую вероятность.

P[X(ζ) = x] = P(ζ = X-1(x))

Пример 4 Рассмотрим тот же эксперимент с картами. Предположим, что мы определяем случайную величину S (Ј) так, что

если ζ содержит S(ζ) = 1
если ζ содержит ♣ S(ζ) = 2
если ζ содержит S(ζ) = 3
если ζ содержит S(ζ) = 4

Заметьте, что результат может быть назначен одним и тем же числом. Функция, определенная случайной величиной может быть любым множеством функции при условии что ±∞ есть ноль

Насчет вероятностей

Случайная величина есть функцией результатов эксперимента. Так как каждый результат имеет вероятность, число назначенное этой функции случайной величиной, также имеет вероятность. Вероятность данных случайных величин обозначается следующим образом.

P[X(ζ) = x] = P[ζ = X-1(x)]

где X -1(x) это отображение числовой прямой R к множеству всех результатов, Ω.

Пример 5 Рассмотрим случайную величину X (ζ) определенную в примере 3

P[X(ζ) = 1] = P[ζ = X-1]=P[ζ = A♠]= 1/52;

P[X(ζ) = 26] = P[ζ = X-1(26)]=P[ζ = K♠] = 1/52

P[X (ζ) = 28.9] = P [ζ = X-1(28.9)] =P [φ] = 0

P[X(ζ) = 0] = P[ζ = X-1(0)]=P[φ]=0

P[X(ζ)≤2] = P{ζ=X-1(-∞,2]} = P[ζ = {A♠,2♠}] = 2/52

Пример 6 Рассмотрим случайную величину S (ζ), определенную в примере 4
P[S (ζ) = 1] = P[(ζ = S -1(1)]

=    P[ζ = {A♠, 2♠, 3♠, 4♠, 5♠, 6♠, 7♠, 8♠, 9♠, 10♠, J♠, Q♠, K♠}] = ¼

P[S (ζ) = 2] =    P[ζ = S -1(2)]=¼

P [S (ζ) = 2.5] =    P[ζ = S -1(2.5)}=P[4φ]=0

P[2≤S(ζ)≤3] =    P{ζ = S -1 [2,3]} =P[ζ= {all ♣ and all ♥}] = ½

Функции кумулятивного распределения и функции плотности вероятности

Есть два пути проанализировать эксперименты через случайные величины: это через функцию кумулятивного распределения и функцию плотности вероятности

Определение 8 Пусть X (ζ) это случайная величина, определенная в пространстве Ω. Тогда функция кумулятивного распределения X обозначаетя функцией Fx (x0) и определяется следующим образом

Fx (x0) = P[X≤ x0]
где множество [X x0] является событиями эксперимента.

Пример 7 Рассмотрим случайную величину в примере 3. Функция кумулятивного распределения X есть

Пример 8 Рассмотрим случайную величину в примере 4. Функция кумулятивного распределения S есть

Fs (so) = ¼u (s0 -l) + ¼u (s0 -2) + ¼u (s0 - 3) + ¼u (s0 - 4)

So

Определение 9 Пусть X (ζ) является случайной величиной определенной на пространстве Ω. Тогда функция плотности вероятности of X обозначается символом l fx (x) и определяется как производная функции кумулятивного распределения

(24) Заметьте, что мы можем восстановить функцию кумулятивного распределения из функции плотности вероятности через интегрирование

(25) Поэтому fx (x) всегда будет интегрирована к 1

Кроме того, вероятность того, что X (ζ) находится между x1 и x2, x2 < x1 and x<i включительно, может быть рассчитана следующим образом

Заметьте, что аргумент, ζ, был исключен из случайной величины, X. В течение оставшейся части этого материала мы будем считать, что зависимость случайной величины X от ζ подразумевается и аргумент опускается для удобства

Моменты случайных величин

Моменты случайных величин включают такие значения как средние значения, дисперсию, стандартное отклонение и прочее. Они особенно полезны в области связи, поскольку они предоставляют ценную информацию о случайной величине, чтобы иметь статистические данные (например функцию кумулятивного распределения или функцию плотности вероятности)

Определение 10 Пусть X это случайная величина с функцией плотности вероятности fx (x). Тогда ожидаемое значение или среднее значение X, есть

(28)

Определение 11 Пусть X будет случайной величиной с функцией плотности вероятности fx (x). Тогда, дисперсия X есть

и стандартное отклонение X есть

Определение 12 Пусть X это случайная величина с функцией плотности вероятности fx (x). Тогда n момент X есть

и n центральный момент X есть

(32)

Наконец, пусть X это случайная величина и пусть g (X) есть некоторой функцией этой случайной величины. В большинстве случаев g (X) преобразуется X в новую случайную величину, которую мы назовем Y

Y = g(X)     (33)

и которая имеет свои собственные функцию кумулятивного распределения и функцию плотности вероятности, и которые должны быть найдены через использование методов преобразования случайных величин. Однако, если нам интересны в моментах Y, такие как среднее значение, тогда знание об функции кумулятивного распределения и функции плотности вероятности Y не обязательны. Скорее мы можем просто использовать уже известные функции кумулятивного распределения и функции плотности вероятности X.

Теорема 1 Пусть X это случайная величина с функцией плотности вероятности fx (x). Пусть Y = g (X) это некоторое преобразование Х. Тогда ожидаемое значениеили среднее Y есть

Пример 9 Пусть X это случайная величина со следующей функцией плотности вероятности







Функции случайной величины

Определение 1 Рассмотрим функцию случайной величины, g(X). Результат это другая случайная величина, которую мы можем назвать Y, Y = g(X). Однако функции кумулятивного распределения и функции плотности вероятности Y будут различные от тех же функций X. В самом деле, мы используем информацию об Fx (x), fx (x), и g (X) чтобы определить Fy (y) и fy (y)

Распределение Y = g(X)

Функция плотности вероятности случайной величины, Y, есть ничто более чем вероятность события {Y ≤ y}. Она состоит из всех результатов ζ ε Ω таких что Y (ζ) ≤ Y Это эквивалентно множеству всех результатов ζ ε Ω таких что g [X (ζ)] ≤ y, и это эквивалентно множеству всех результатов ζ ε Ω таких что X (ζ) ≤ g-1(y). Так,

F(y) = P({Y≤ y}) = P({g(X) ≤ y}) = P({X ≤ g-1(y)})     (36)

Функция плотности вероятности Y = g (X)

Тогда как функция плотности вероятности рассчитана, расчет функции плотности вероятности Y является простым

fY(y) = dFY(y) / dy

Примеры

Пример 10 Пусть X это случайная величина. Пусть

Y = g (X) = 2X + 1

Найдем Fy (y) и (y). Чтобы найти Fy (y), мы должны оценить событие {Y ≤ y} где Y есть случайная величина , а y - это просто число. Рассмотрим следующий график

{Y≤y}

Утолщенная вертикальная прямая относится к событию {ζ :Х(ζ)≤ y} и горизонтальная прямая относится к событию {ζ : X (ζ) ≤ ½ (y — 1)}. Оба события имеют точно такие же результаты. Поэтому

Поэтому

{Y ≤ y} = {2X + 1 ≤ y} = {X ≤ ½(y - 1)} = {X ≤ g-1 (y)}

Обратите внимание, что обратная функция g-1(Y) есть

g-1(Y)=½(X - l)

Так,

FY(y) = P[Y ≤ y]=P[2X + l ≤ y] = P[X ≤ ½(y - 1) = Fx(½(y - 1))

Сейчас предположим, что Х было равномерно распределено между 0 и 1. Тогда

Теперь мы можем определить Fy (y). Подставим несколько значений

y = 0     Fy(0) = Fx(½(0 - 1))=Fx(-½)=0

y = 1    Fy(l) = Fx ½ (1 - 1) = Fx (0) = 0

y = 2    Fy (2) = Fx ½ (2 - 1) = Fx (½) = ½

y = 3    Fy(3) = Fx (½ (3 - 1)) = Fx (1) = 1

Тогда

Плотность Y, fy (y), есть просто

и из (41) мы имеем что

Мы также можем рассчитать fy (y) следующим образом

Подставляя (38) в уравнение выше, мы получаем такой же результат, как (43).

Пример 11 Пусть X - это случайная величина. Пусть

Y = g(X) = X2
Тогда для y ≥ 0, мы имеем что Y ≤ y, когда X2 ≤ y для -√y
X y.

Обратите внимание, что в этом случае здесь есть две обратные функции для g (X)

g-11(Y) = √Y

g-12(Y) = -√Y

Тогда

FY (y) = P(Y ≤ y) = P(X2 = y) = P(-√y ≤ X ≤ √y) = Fx (√y) - Fx (-√y)

and

Теперь для y<0, нет таких значений x, для которых x2 < y. Поэтому

FY{y)=0    y < 0
Опять, предположим, что X равномерно распределено в интервале [0,1]. Тогда мы имеем что

и

F(x)

Рисунок 1: функция плотности вероятности Гауссовской случайной величины

Общие случайные величины

Гауссовские случайные величины

Гауссовские случайные величины являются наиболее распространенными из всех случайных переменных. Они используется для числовых характеристик случайных явлений, таких как шум в телекоммуникационной системе вследствие случайных флуктуации напряжения в условиях отсутствия прямой видимости беспроводных систем связи, таких как сотовые системы и системы персональной связи. Гауссовская случайная величина имеет функцию плотности вероятности, которая полностью определяется ее значением m и дисперсией σ2. Пусть X будет Гауссовской случайной величиной со значением mx и дисперсией σ2x. Tогда, fx (x) is

и строится следующим образом. Функция кумулятивного распределения X находится обычным путем

Этот интеграл не может быть оценен в замкнутом виде. Однако интегралы сведены в таблицы. Табуляция, общая для инженеров связи Q-функция, где

Поэтому,

Другие хорошо табулированные интегралы включают функцию ошибки и дополнительную функцию ошибки. Функция ошибки определяется следующим образом

Дополнительная функция ошибки это

Обратите внимание, что дополнительная функция ошибок и Q-функция связаны следующим образом

Обратите внимание, что P [x1 < X < x2 рассчитывается следующим образом

Случайные величины Релея

Пусть X и Y - две независимые Гауссовские случайные величины с mx = my = 0 и σ2x = σ2y = σ2. Допустим, мы определяем новую случайную величинуZ в результате преобразования

Сейчас если X и Y представляют полученные напряжения от двух составляющих сигнала в беспроводном канале, тогда Z представляет полученный пакет, namely, Z называется распределением Релея. Функция плотности вероятности Z

is

и строится, как показано ниже для различных значений σ2x = σy2 = σ2

Функция кумулятивного распределения Z находится интегрированием функцией плотности вероятности. Поэтому

Полученный пакет в мобильной связи, где не установлена линия прямой видимости, обычно моделируется clS Qb распределением Релея

Экспоненциальное или показательное распределение

Пусть Z будет распределением Релея. Предположим, что мы обозначаем новую случайную ведичину W, для которой

W = Z2

Если Z представляет напряжение пакета радиосигнала, то W представляет мощность в радиосигнале, с точностью до постоянной. Tогда W имеет следующую функцию плотности вероятности

W называется экспоненциальной случайной величиной и функция плотности вероятности w выглядит следующим образом:

Функция кумулятивного распределенияW есть

Экспоненциальные случайные величины используются для моделирования мощности сигналов в мобильных сетях, где не установлена линия прямой видимости

Равномерное распределение случайных величин

В системе или в сигналах, где фаза неизвестна, обычно моделируется как случайная величина θ, которая равномерно распределена между 0 и 2π. Функция плотности вероятности такой случайной величины есть

Функция кумулятивного распределения есть

Центральная предельная теорема

Предположим, что мы имеем большое число случайных величин, которые мы суммируем. Центральная предельная теорема говорит, что результирующая случайная величина будет иметь распределение Гаусса. Это одна из причин, почему гауссовские случайные величины так распространены. Более формальное определение этой теоремы следующее

Теорема 2 Пусть Xi, i = 1, 2,..., N будет набором независимых случайных величин со средним значением 0 и дисперсией 1. Обозначим новою случайную величину Y, следующим образом

Тогда Y есть Гауссовской случайной величиной со средним значением 0 и дисперсией 1, т.e., my = 0, σ2y = 1.

Случайные величины Райса

Только что мы узнали, что если не установлена линия прямой видимости в мобильной системе связи, то полученный пакет радиосигнала будет иметь распределение Релея. Однако, если установлена прямая видимость, то сигнал будет иметь распределение Райса, которое имеет следующую функцию плотности вероятности

где I0 (·) есть модифицированной функцией Бесселя 0-го порядка. Обратите внимание, что когда v = 0, Iq (0) = 1 и Z вырождается в распределение Релея.


Электронная почта:

© 2005 - 2024
Копирование запрещено! В случае копирования администрация сайта обратится в компетентные органы.