Теория вероятностей

Материал из Юнциклопедии
(перенаправлено с «ВЕРОЯТНОСТЕЙ ТЕОРИЯ»)
Перейти к: навигация, поиск

Теория вероятностей — наука о вычислении вероятностей случайных событий.

Основные объекты изучения теории вероятностей: 1) случайное событие и его вероятность; 2) случайная величина и ее функция распределения; 3) случайный процесс и его вероятностная характеристика. Например, задачи, которые возникают из ситуаций, обычных на телефонной станции: а) какова вероятность того, что на станцию за время t поступят n вызовов от абонентов? б) Какова вероятность того, что длительность ожидания соединения с нужным абонентом окажется большей, чем заданное число t0? в) Как со временем изменяется очередь на соединение? Какие закономерности появления вызовов во времени? Эти задачи показывают, что именно практика приводит к необходимости вводить математические понятия и изучать их. В задаче а) речь идет о вероятности наступления случайного события; в задаче б) о разыскании функции распределения случайной величины (длительности ожидания); в задачах в) рассматриваются случайные процессы, связанные с обслуживанием абонентов.

Основой теории вероятностей является понятие вероятности случайного события. Интуитивно ясное понятие случайного события (появления данного числа вызовов на телефонной станции, выпадения грани 5 при бросании игральной кости и т.д.) формализуется. В современной теории вероятностей принят следующий подход. Рассматривается исходное множество — множество элементарных событий E. Далее выбираются подмножества этого множества. Например, при бросании игральной кости множество элементарных событий состоит из шести элементов (1, 2, 3, 4, 5, 6) — когда кость падает сторонами, обозначенными числами 1, 2, ..., 6. В качестве подмножеств рассматриваем возможности выпадения одной из двух граней i или j; или из трех граней i, или j, или k; ...; или выпадение одной из граней 1, или 2, или 3, ..., или 6. Это последнее событие наступает при любом бросании кости, и поэтому оно называется достоверным. И в любом случае в качестве одного из подмножеств берется все множество. Оно наступает при любом испытании и является достоверным событием. Остальные подмножества являются случайными событиями. Множество F случайных событий (множество выбранных подмножеств Е) не произвольно, а должно обладать следующими свойствами: наряду с событиями A и B в него входят также события A или B, а также A и B. Событие A или B называется суммой событий A и B и обозначается символом A + B, или символом A ⋃ B. Событие A и B носит название пересечения (или произведения) событий А и В и обозначается символом АВ (или символом А ⋂ В). Требования, наложенные на множество случайных событий, позволяют заключить, что в это множество входит еще одно событие, называемое невозможным. Оно получается каждый раз, когда рассматривается AB, но события A и B составлены из разных элементарных событий. В примере с бросанием игральной кости если выбрать A = {3}, а B = {5}, то событию AB не соответствует ни один исход бросания кости. Это невозможное событие. Оно обозначается символом 0.

События A и B называются несовместными, если AB = ∅; иными словами, если события A и B не содержат в своем составе ни одного общего элемента (элементарного события). Определим теперь на множестве F неотрицательную функцию: каждому случайному событию A поставим в соответствие число P{A} ≥ 0; для функции P{A} должны быть выполнены два дополнительных свойства: 1) если A и B несовместны, то P{A + B} = P{A} + P{B}; 2) если U — достоверное событие, то P{U} = 1. Легко проверить, что классическая вероятность является как раз такой функцией. Величина P{A} называется вероятностью события A. Соотношение 1) носит наименование теоремы сложения вероятностей; она входит в состав трех простейших соотношений, позволяющих вычислять вероятности сложных событий по заданным вероятностям простых.

Два требования, наложенные на вероятность события, позволяют получить большое число следствий: а) вероятность невозможного события равна 0; б) каковы бы ни были события A и B, P{A + B} = P{A} + P{B} - P{AB}.

При определении вероятности случайного события всегда предполагается, что выполнен некоторый комплекс условий: игральная кость правильная, т.е. плотность вещества, из которого она сделана, постоянна, а ее форма является идеальным кубом. Таким образом, каждая вероятность является условной. Однако принято эту первичную совокупность условий считать само собой разумеющейся, никак не отмечать ее наличие и просто писать P{A} — вероятность события A, предполагая при этом, что указанный комплекс условий выполнен. Если же помимо этого комплекса условий известно, что осуществилось еще некоторое условие B, то в этом случае говорят об условной вероятности события A при условии B и обозначают P{A/B}. Пусть событие A состоит в том, что при бросании игральной кости выпадет не более четырех очков. Вероятность этого события равна 4/6 = 2/3. Если нам стало известно событие B — число выпавших очков оказалось большим двух, то тогда могли выпасть лишь очки 3, 4, 5 или 6. Благоприятствуют интересующему нас событию лишь два из четырех, значит, P{A/B} = 2/4 = 1/2. Вообще говоря, условная вероятность P{A/B} не равна безусловной P{A}, однако могут быть случаи, когда P{A/B} = P{A}. В этом случае говорят, что событие A независимо от события B.

Найдем вероятность события AB. Чтобы произошло событие AB, нужно, во-первых, чтобы произошло событие B, а во-вторых, чтобы наступило событие A при условии, что событие B наступило.

Рассмотрим классическую схему вероятности. Имеется n элементарных равновероятных событий. Событию A благоприятствуют какие-то j из них, событию B благоприятствует k и m — событию AB. Согласно определению P{AB} = m/n = k/n • m/k. Но первый множитель правой части этого равенства равен P{B}, а второй - вероятность события A при условии, что B наступило. Таким образом, P{AB} = P{B} • P{A/B}. Точно такими же рассуждениями доказываем, что P{AB} = P{A} • P{B/A}. Из этих равенств, носящих название теоремы умножения вероятностей, вытекает, во-первых, что если A независимо от B, то и B независимо от A. Во-вторых, следует равенство P{A/B} = P{AB}/P{B}.

Для общего определения вероятности равенство P{A/B} = P{AB}/P{B} служит определением условной вероятности. Ясно, что и в этом случае имеет место теорема умножения, которая является второй основной теоремой.

Третьей основой вычислений в теории вероятностей служит так называемая формула полной вероятности. Пусть события A1, A2, ..., AS попарно несовместны и пусть событие В наступает только в том случае, когда происходит одно из событий Aj. В этом случае имеет место равенство B = BA1 + BA2 + ... + BAS.

Отсюда P{B} = ∑Sj=1 P{Aj}P{P/Aj}

В развитии теории вероятностей важную роль играла и продолжает играть так называемая схема Бернулли. Пусть производится n независимых испытаний, в каждом из которых может произойти событие А с одной и той же в каждом из испытаний вероятностью p и не произойти с вероятностью q = 1 - p. Вероятность того, что при этом событии A появится ровно m раз, а событие Ā (не A) n - m раз, вычисляется по формуле

Pn(m) = Cmnpmqn-m.

При больших n вычисления по этой формуле довольно сложны и технически трудны; для этого обычно используют приближенную формулу (локальную теорему Муавра-Лапласа), согласно которой

Pn(m) ≈ √((2πnpq)-1)•e-(m-np)2/(2npq).

В теоретических и прикладных задачах часто приходится находить суммы вида Pn(a,b) = ∑bm=a Pn(m). При больших n, a и b такие вычисления требуют значительных усилий. Для их приближенного вычисления используется интегральная теорема Муавра — Лапласа, согласно которой

Pn(а,b) = 1/√(2π)•∫αβ e-x2/2dx, α = (a-np)/√(npq), β = (b-np)/√(npq)

Обе теоремы дают очень высокую точность. Они относятся к так называемым предельным теоремам теории вероятностей.

Швейцарский математик Я. Бернулли (1654-1705) обнаружил фундаментальный факт теории, получивший название закона больших чисел в форме Бернулли. Пусть μ обозначает число появлений события A в n независимых испытаниях, в каждом из которых событие A наступает с вероятностью p. Каково бы ни было число ε > 0, имеет место соотношение

limn→∞ Р{|μ/n-р| > ε} =0,

т.е. что вероятность отклонения частоты μ/n появления события от p — вероятности этого события больше, чем на ε, стремится к 0.

Наряду со случайными событиями в теории вероятностей и ее применениях рассматривают случайные величины. Представим себе, что при каждом наблюдении некоторая величина принимает какое-то значение в зависимости от случая; например, число космических частиц, попадающих за данный промежуток времени на определенную площадку поверхности; число обрывов пряжи, изготовленной из хлопка определенного сорта и заданного номера, при испытаниях на разрыв. Таких примеров можно привести сколько угодно.

Случайные величины различаются как теми значениями, которые они способны принимать, так и вероятностями, с которыми эти значения принимаются. Так, число вызовов от абонентов на телефонной станции за промежуток времени t может быть любым целым числом: 0, 1, 2, ... . Как показывают многочисленные наблюдения, вероятность того, что число вызовов окажется равным k, согласуется с формулой Pk(t) = (1/k!)(λt)ke-λt, где λ-некоторая положительная постоянная.

Скорость молекулы газа также случайна и может принимать любые значения. Этих значений столько же, сколько положительных чисел. Как в этом случае задавать вероятности этих значений? Математики пошли по такому пути: стали определять не вероятность каждого из возможных значений, а вероятность того, что случайная величина ξ примет значение меньшее, чем заданное значение x: P{ξ < x} = F(x). Функция F(x) получила наименование функции распределения случайной величины ξ. Из теоремы сложения легко вывести следующее важное равенство: P{a ≤ ξ < b} = F(b) - F(a), позволяющее по функции распределения определять вероятность выполнения указанного неравенства.

В теории вероятностей и ее применениях важную роль играют числовые характеристики случайных величин — математическое ожидание и дисперсия. Мы дадим их определение для дискретных случайных величин. Пусть x1, x2, ... — возможные значения случайной величины ξ и p1, p2, ... — вероятности этих значений, тогда сумма

Eξ = ∑k=1 = x1p1 + x2p2 + ...

называется математическим ожиданием ξ, а E(ξ — Eξ)2 = Dξ — дисперсией

П.Л. Чебышев доказал закон больших чисел в очень общей форме, а именно: пусть ξ1, ξ2, ... — последовательность независимых случайных величин с математическими ожиданиями a1, ξ2, ... и дисперсиями Dξk, ограниченными одной и той же величиной C, тогда для любого положительного ε > 0 выполняется

limn→∞ P{|(1/n)∑nk=1k-ak)| > ε} = 0.


Вторая предельная теорема получила наименование теоремы Ляпунова, или центральной предельной теоремы: если случайные величины ξ1, ξ2, ... независимы, имеют конечные математические ожидания a1, ξ2, ... и дисперсии Dξk = bk, то при дополнительном условии равномерной малости отдельных слагаемых имеет место:

limn→∞ P{(1/Bn) ∑nk = 1k - ak < ε} = 1/√(2πn) • -∞x∫ e - r2/2 dr,

где Bn2 = ∑nk=1 bsub>k</sub>2

Эта теорема является значительным обобщением интегральной теоремы Муавра — Лапласа.

В нашем веке в связи с физическими, биологическими, инженерными и другими исследованиями возникла необходимость рассматривать случайные процессы ξ(t), т.е. случайные функции от одного независимого переменною t, под которым обычно понимается время. Теория случайных процессов в наши дни является одним из основных математических средств изучения явлений реального мира.

Первые задачи теории вероятностей были рассмотрены Л. Пачоли (1445 — ок.1514), Д. Кардано (1501—1576), Н. Тарталья (ок.1499 — 1557), Б. Паскалем (1623—1662), П. Ферма (1601—1665), Х. Гюйгенсом (1629—1695). В качестве самостоятельной научной дисциплины теория вероятностей стала оформляться в работах Я. Бернулли (1654—1705), А. Муавра (1667—1754), П. Лапласа (1749—1827), С. Пуассона (1781—1840). Ее последующее развитие связано с именами П. Л. Чебышева, А.А. Маркова, А. М. Ляпунова (1857—1918), А. Я. Хинчина (1894—1959), С. Н. Бернштейна (1880—1968), А. Н. Колмогорова (1903—1987) и других.