ВЕРОЯТНОСТНЫЕ МОДЕЛИ: Вероятностные модели составили наиболее многочисленную группу,

Вероятностные модели систем

ВЕРОЯТНОСТНЫЕ МОДЕЛИ: Вероятностные модели составили наиболее многочисленную группу,

2.1. ОРИЕНТИРОВАННЫЙ ГРАФ СОСТОЯНИЯ СИСТЕМЫ.
МАРКОВСКИЕ ПРОЦЕССЫ.

Вероятностные (стохастические) модели используются для исследования таких систем, процесс функционирования которых определяется случайными факторами.

Учет случайных факторов является обязательным при исследовании процессов применения, эксплуатации, ремонта и обеспечения технических комплексов, при оценке их эффективности, разработке автоматизированных систем управления, обосновании технических требований к системам и так далее.

Мощным средством разработки и исследования вероятностных моделей является аппарат теории марковских случайных процессов в развитие которого внесли большой вклад русские и советсткие ученые А.А.Марков, А.Я.Хинчин, А.Н.Колмогоров, Б.В.Гнеденко, И.Н.Коваленко, Н.П.Бусленко, Ю.В.Прохоров и многие другие.

В данной главе рассматриваются дискретные системы с непрерывным временем.

Возможные состояния такой системы S0, S1, S2, … можно перечислить (перенумеровать), а переход ее из одного состояния в другое возможен в любой, наперед неизвестный, случайный момент времени, причем этот переход осуществляется скачком (мгновенно). Число состояний системы может быть как конечным, так и бесконечным (но счетным).

Множество S={S0, S1, S2, …} возможных состояний системы и множество возможных ее переходов из одного состояния в другое удобно представлять в виде ориентированнного графа (рис 2.1.

), вершинам которого соответствуют состояния системы, а дугам – возможные переходы, причем направление дуги указывает, из какого состояния и в какое возможен переход системы.

Процесс функционирования системы в данном случае можно представить как случайное перемещение (блуждание) точки, изображающей систему, по графу состояний.

Характерной особенностью стохастических систем является то, что для любого момента времени t нельзя однозначно указать, в каком из состояний находится система, а можно определить только распределение вероятностей для состояний, то есть определить значения вероятностей Pk(t) того, что в момент времени система находится в состоянии Sk..

Так как в любой момент времени t система обязательно находится в одном из возможных ее состояний, то при t любом справедливо нормировочное условие:

, (2.1)

где N+1 – число возможных состояний системы.

Совокупность функциональных соотношений и логических условий, позволяющих вычислить значение вероятностей Pk(t) для k=0,N, и представляет собой вероятностную модель системы.

Из изложенного следует, что при разработке модели системы необходимо прежде всего определить множество S ее возможных состояний и дать описание законов, в соответствии с которыми она переходит из одного состояния в другое.

Множество S можно определить, во-первых, как множество допустимых комбинаций возможных состояний элементов системы. Важным при этом является анализ и учет взаимосвязей между элементами системы.

Во-вторых, каждое состояние системы можно охарактеризовать численными значениями одного или нескольких ее параметров, т.е. множество возможных комбинаций численных значений параметров системы. Этот подход более целесообразен, так как набор параметров, характеризующих состояние системы, определяют не только исходя из природы системы, но и с учетом цели проводимого исследования.

Оба указанных подхода не исключают, а наоборот, дополняют друг друга, так как на основе анализа возможных состояний элементов системы можно определить ее параметры.

Чтобы выявить и описать закономерности перехода системы из одного состояния в другое, каждый переход удобно рассматривать как результат воздействия на систему некоторого случайного потока событий.

Поток – это последовательность однородных событий, следующих одно за другим в случайные моменты времени (например, поток отказов технических систем, поток сообщений, поступающих в АСУ, и тому подобные).

Наиболее важными свойствами потоков являются : стационарность, ординарность и отсутствие последействия.

Стационарность потока означает, что его вероятностные характеристики не зависят от времени. Важнейшей характеристикой потока является его интенсивность l – среднее число событий в единице времени. Для стационарного потока l=const, а для нестационарного l=l(t) – функция времени.

Ординарность потока означает практическую невозможность появления двух и более событий в один и тот же момент времени.

Отсутствие последействия означает, что события появляются в потоке независимо друг от друга, т.е. вероятность появления определенного числа событий за некоторый произвольно выбранный промежуток времени не зависит от того, сколько событий произошло раньше (не зависит от предыстории изучаемого потока).

Поток событий, обладающий всеми тремя свойствами, называется простейшим или стационарным пуассоновским потоком. Число событий пуассоновского потока, попадающих на любой участок, распределено по закону Пуассона, то есть вероятность попадания ровно k событий на участок (t0, t0+t)

(2.2)

где а – среднее число событий, приходящихся на участок t. Для простейшего потока а=lt, а для нестационарного пуассоновского

.

Определим закон распределения F(t) интервала времени между событиями. Так как F(t) – вероятность того, что на участок длительности t попадает хотя бы одно событие, то

F(t)= 1–P(0)=1–e-lt (2.3)

f(t) = F’(t)= le-lt, t ³ 0.

Таким образом, закон распределения интервалов времени между событиями простейшего потока является экспоненциальным (показательным).

Математическое ожидание Mt (средняя длительность интервала между событиями), дисперсия Dt и среднее квадратическое отклонение st случайной величины, распределенной по показательному закону, определяются соотношениями

. (2.4)

Экспоненциальное распределение обладает замечательным свойством «не помнить о прошлом»: если рассматриваемый промежуток времен уже «длился» некоторое время, то это никак не влияет на закон распределения оставшейся части этого промежутка.

Это означает, что вероятность появления события в течение некоторого интервала времени не зависит от того, сколько времени прошло после появления предыдущего события, а среднее время ожидания этого события также не зависит от того, с какого момента времени мы его ожидаем.

Простейшие потоки событий довольно часто встречаются на практике, так как суммарный поток, образующийся при взаимном наложении достаточно большого числа стационарных и ординарных потоков с последействием (что часто имеет место на практике), является простейшим.

Из сказанного следует: если переход системы из состояния Si в состояние Sj происходит под воздействием L простейших потоков интенсивности , то

.

Таким образом, каждой дуге (i,j) графа состояний можно поставить в соответствие интенсивность суммарного потока событий lij. Такой граф называется размеченным, и ему соответствует квадратная матрица интенсивностей переходов порядка (N+1, N+1), причем . Для размеченного графа состояний (рис 2.1) имеем

.

Можно доказать следующее утверждение : если все потоки событий, переводящие систему из состояния в состояние, пуассоновские, то процесс функционирования системы представляет собой марковский процесс с непрерывным временем.

Отличительной особенностью марковского процесса является то, что вероятность любого состояния системы в будущем зависит только от ее состояния в настоящем и не зависит от того, когда и каким образом система пришла в это состояние. Понятие «марковский процесс» ввел советский математик А.Н.

Колмогоров в честь русского ученого А.А.Маркова (1856–1922), внесшего большой вклад в теорию случайных процессов.

2.2. Уравнения Колмогорова для вероятностей
состояний

Введем обозначения:

Pk(t) – вероятность того, что система в момент времени t находится в состоянии Sk(k=0, 1, 2, …, N);

Pik(Dt) – условная вероятность того, что система, будучи в момент t в состоянии Si, за время перейдет в состояние Sk(k¹i).

Так как Pik(Dt) – вероятность появления хотя бы одного события за время Dt, то

,

где lik – интенсивность потока событий, под воздействием которого система переходит из состояния Si в состояние Sk .

Разлагая показательную функцию в ряд Тейлора, имеем:

. (2.5)

Пусть в момент времени t система находится в одном из возможных состояний. Определим вероятность Pk(t+) того, что в момент t+Dt она будет находиться в состоянии Sk (k=0,1,…,N).

Предположим, что за время Dt система может только один раз изменить свое состояние. Это означает, что система может попасть в состояние Sk двумя способами.

1. В момент t система находилась в одном из состояний Si(i¹k), которое соединено дугой (i, k) с состоянием Sk , а за время Dt перешла в состояние Sk .

Вероятность этого события
,
где – множество дуг, заходящих в вершину Sk . Например, для состояния S1 (рис. 2.

1) ,
P1=P0(t)P01(Dt)+P2(t)P21(Dt) .

2. В момент t система находилась в состоянии Sk и за время Dt не вышла из него ни по одной из дуг, исходящих из вершины Sk.. Вероятность этого события
,
где – множество дуг, исходящих из вершины Sk . Для состояния S1 (рис. 2.

1) ,
P2=P1(t)[1–P10(Dt)–P12(Dt)] ,
где [P10(Dt)+P12(Dt)] – вероятность того, что система, будучи в момент t в состоянии S1, за время Dt перейдет из него в состояние S0 или S2.

Так как оба способа несовместны, то

(2.6)

Перенесем Pk(t) в левую часть и разделим все члены уравнения (2.6) на Dt, получим

.

В результате предельного перехода при Dt®0 с учетом выражения (2.5) получим систему дифференциальных уравнений Колмогорова

(2.7)

Уравнение (2.7) в отличие от уравнения (2.6) является точным, так как члены, соответствующие двум и более переходам системы за время Dt и опущенные в выражении (2.

6), в результате предельного перехода обращаются в нуль. Действительно, пусть за время Dt система может перейти из состояния Si в состояние Sk через состояние Sj.

Условная вероятность этого события с учетом формулы (2.5)

При записи правой части уравнения (2.7) целесообразно руководствоваться мнемоническим правилом : «то, что втекает, прибавляется, а что вытекает – вычитается».

Для рассматриваемого примера (рис 2.1) уравнения Колмогорова имеют вид (читателю рекомендуется записать их самостоятельно)

Интегрируя систему линейных дифференциальных уравнений (2.7) с учетом условия нормировки (2.1) при заданных начальных условиях (например, Pk(0)=1, а для всех i ¹ k Pi(0)=0 – в начальный момент система находится в состоянии Sk), можно определить распределение для вероятностей состояний системы в любой момент времени.

На практике часто наибольший интерес представляет поведение системы в установившемся режиме при t®¥. Здесь сразу же возникает вопрос, как поведут себя вероятности Pk(t) при t®¥, стремятся ли они к каким либо пределам, существует ли в системе некоторый установившийся (стационарный) режим.

Предельные вероятности существуют и не зависят от начального состояния системы, если граф ее состояний конечен и существует маршрут между любой парой его вершин, то есть система может перейти из каждого состояния в любое другое за конечное число шагов. Такие системы называют эргодическими.

Предельная вероятность Pk – это средняя доля времени, в течение которого система находится в состоянии Sk . Если, например, Pk=0,3, то это означает, что в состоянии Sk система времени ее функционирования.

Для вычисления предельных вероятностей в уравнениях (2.7) производные приравнивают нулю и получают систему линейных алгебраических уравнений

(2.8)

Так как система (2.8) однородна, то при вычислении вероятностей Pk одно из уравнений (2.8) заменяют нормировочным условием

.

При аналитическом исследовании удобно использовать следующий способ решения системы (2.8): сначала все предельные вероятности выражают через какую-либо одну, а затем их подставляют в условие нормировки.

Не нашли то, что искали? Воспользуйтесь поиском:

Источник: https://studopedia.ru/12_220529_veroyatnostnie-modeli-sistem.html

Вероятностные модели: примеры и картинки

ВЕРОЯТНОСТНЫЕ МОДЕЛИ: Вероятностные модели составили наиболее многочисленную группу,
Сегодня – вторая серия цикла, начатого в прошлый раз; тогда мы поговорили о направленных графических вероятностных моделях, нарисовали главные картинки этой науки и обсудили, каким зависимостям и независимостям они соответствуют.

Сегодня – ряд иллюстраций к материалу прошлого раза; мы обсудим несколько важных и интересных моделей, нарисуем соответствующие им картинки и увидим, каким факторизациям совместного распределения всех переменных они соответствуют.

Начну с того, что кратко повторю прошлый текст: мы уже говорили о наивном байесовском классификаторе в этом блоге.

В наивном байесе делается дополнительное предположение об условной независимости атрибутов (слов) при условии темы:

В результате сложное апостериорное распределение удалось переписать как
И вот какая картинка этой модели соответствует:

Всё в точности как мы говорили в прошлый раз: отдельные слова в документе связаны с переменной категории расходящейся связью; это показывает, что они условно независимы при условии данной категории. Обучение наивного байеса заключается в том, чтобы обучить параметры отдельных факторов: априорного распределения на категориях p(C) и условных распределений отдельных параметров .

Ещё одно замечание о картинках, прежде чем двигаться дальше. Очень часто в моделях встречается большое число однотипных переменных, которые связаны с другими переменными одними и теми же распределениями (возможно, с разными параметрами). Чтобы картинку легче было читать и понимать, чтобы в ней не было бесчисленных многоточий и вещей типа «ну а тут полный двудольный граф с многоточиями, ну, вы понимаете», удобно объединять однотипные переменные в так называемые «плашки» (plates). Для этого рисуют прямоугольник, в который помещают одного типичного представителя размножаемой переменной; где-нибудь в углу прямоугольника удобно ещё подписать, сколько копий подразумевается: А общая модель всех документов (без плашек мы её не рисовали) будет состоять из нескольких копий этого графа и, соответственно, выглядеть так:

Здесь я явным образом нарисовал параметры распределения на категориях α и параметры – вероятности слов в каждой категории β. Поскольку у этих параметров нет отдельного фактора в разложении, им не соответствует узел сети, но часто удобно их тоже изобразить для наглядности.

В данном случае картинка означает, что разные копии переменной C были порождены из одного и того же распределения p(C), а разные копии слов порождались из одного и того же распределения, параметризованного ещё и значением категорий (т.е.

β – это матрица вероятностей разных слов в разных категориях).

Продолжим ещё одной моделью, которую вы, возможно, смутно припоминаете из курсов матстатистики – линейной регрессией. Суть модели проста: мы предполагаем, что переменная y, которую мы хотим предсказать, получается из вектора признаков x как некоторая линейная функция с весами w (жирный шрифт будет обозначать векторы – это и общепринято, и в html мне это будет удобнее, чем каждый раз рисовать стрелочку) и нормально распределённым шумом:

В модели предполагается, что нам доступен некоторый набор данных, датасет D. Он состоит из отдельных реализаций этой самой регрессии, и (важно!) предполагается, что эти реализации были порождены независимо. Кроме того, в линейной регрессии часто вводят априорное распределение на параметры – например, нормальное распределение
Тогда мы приходим к вот такой картинке:

Здесь я явным образом нарисовал параметры априорного распределения μ0 и Σ0. Обратите внимание – линейная регрессия очень похожа по структуре на наивный байес.

С плашками то же самое будет выглядеть ещё проще:

Какие основные задачи, которые решаются в линейной регрессии? Первая задача – найти апостериорное распределение на w, т.е. научиться пересчитывать распределение w при имеющихся данных (x,y) из D; математически мы должны посчитать параметры распределения

В графических моделях обычно заштриховывают переменные, значения которых известны; таким образом, задача состоит в том, чтобы по вот такому графу со свидетельствами пересчитать распределение w:

Вторая основная задача (в чём-то даже более основная) – посчитать предсказательное распределение, оценить новое значение y в какой-то новой точке. Математически эта задача выглядит существенно сложнее, чем предыдущая – теперь надо интегрировать по апостериорному распределению

А графически как раз меняется не так много – мы рисуем новую переменную, которую хотим предсказывать, а задача по-прежнему та же: с некоторыми свидетельствами (из датасета) пересчитать распределение некоторой другой переменной в модели, только теперь это не w, а y*:

Ещё один широко известный и популярный класс вероятностных моделей – скрытые марковские модели (hidden Markov models, HMM). Они применяются в распознавании речи, для нечёткого поиска подстрок и в других тому подобных приложениях. Скрытая марковская модель – это марковская цепь (последовательность случайных величин, где каждая величина xt+1 зависит только от предыдущей xt и при условии xt условно независима с предыдущими xt-k), в которой мы не можем наблюдать скрытые состояния, а видим только некоторые наблюдаемые yt, которые зависят от текущего состояния. Например, в распознавании речи скрытые состояния – это фонемы, которые вы хотите сказать (это некоторое упрощение, на самом деле каждая фонема – это целая модель, но для иллюстрации сойдёт), а наблюдаемые – это собственно звуковые волны, которые доходят до распознающего устройства. Картинка получается вот какая:

Этой картинки достаточно, чтобы решать задачу применения уже готовой скрытой марковской модели: по имеющейся модели (состоящей из вероятностей перехода между скрытыми состояниями A, начального распределения цепи π и параметров распределений наблюдаемых B) и данной последовательности наблюдаемых найти наиболее вероятную последовательность скрытых состояний; т.е., например, в уже готовой системе распознавания речи распознать новый звуковой файл. А если нужно обучить параметры модели, лучше явно нарисовать их и на картинке, чтобы было понятно, что одни и те же параметры участвуют во всех переходах:

Ещё одна модель, о которой мы уже говорили – LDA (latent Dirichlet allocation, латентное размещение Дирихле). Это модель для тематического моделирования, в которой каждый документ представляется не одной темой, как в наивном байесе, а дискретным распределением на возможных темах. В том же тексте мы уже приводили описание генеративной модели LDA – как породить документ в готовой модели LDA:

  • выбрать длину документа N (этого на графе не нарисовано – это не то чтобы часть модели);
  • выбрать вектор — вектор «степени выраженности» каждой темы в этом документе;
  • для каждого из N слов w:
    • выбрать тему по распределению ;
    • выбрать слово с вероятностями, заданными в β.

Теперь мы понимаем, как будет выглядеть соответствующая картинка (она тоже была в том блогпосте, и я опять скопирую её из википедии, но суть картинки здесь точно такая же, как у нас выше):

В целой серии постов (1, 2, 3, 4) мы говорили об одном из главных инструментов коллаборативной фильтрации – сингулярном разложении матриц, SVD. Мы искали SVD-разложение методом градиентного спуска: конструировали функцию ошибки, считали от неё градиент, спускались по нему. Однако можно сформулировать и общую вероятностную постановку задачи, которая обычно называется PMF (probabilistic matrix factorization). Для этого нужно ввести априорные распределения на векторы признаков пользователей и продуктов:
(где I – единичная матрица), а затем, как в обычном SVD, представить рейтинги как зашумленные линейные комбинации признаков пользователей и продуктов:

где произведение берётся по рейтингам, присутствующим в обучающей выборке. Получается вот такая картинка (картинка взята из статьи [Salakhutdinov, Mnih, 2009]):

Можно добавить ещё один уровень байесовского вывода и обучать заодно и гиперпараметры распределений признаков для пользователей и продуктов; я сейчас не буду в это углубляться, а просто приведу соответствующую картинку (из той же статьи) – возможно, ещё доведётся поговорить об этом подробнее.

Ещё один пример, который лично мне близок – когда-то мы с Александром Сироткиным улучшили одну из байесовских рейтинг-систем; возможно, позднее в блоге мы поговорим о рейтинг-системах подробнее. Но здесь я просто приведу простейший пример – как работает рейтинг Эло для шахматистов? Если не вдаваться в аппроксимации и магические константы, суть очень простая: что такое вообще рейтинг? Мы хотели бы, чтобы рейтинг был мерилом силы игры; однако при этом совершенно очевидно, что сила игры от партии к партии может достаточно сильно меняться под воздействием внешних и внутренних случайных факторов. Таким образом, на самом деле сила игры того или иного участника в конкретной партии (сравнение этих сил и определяет исход партии) – это случайная величина, «истинная сила» игры шахматиста – её математическое ожидание, а рейтинг – это наша неточная оценка этого математического ожидания. Мы пока будем рассматривать простейший случай, в котором сила игры участника в конкретной партии нормально распределена вокруг его истинной силы с некоторой постоянной заранее фиксированной дисперсией (рейтинг Эло именно так и делает – отсюда и его магическая константа «шахматист с силой на 200 пунктов рейтинга больше набирает в среднем 0.75 очка за партию»). Перед каждой партией мы имеем некоторые априорные оценки силы игры каждого шахматиста; предположим, что априорное распределение тоже нормальное, с параметрами μ1, σ1 и μ2, σ2 соответственно. Наша задача – зная результат партии, пересчитать эти параметры. Картинка получается вот какая:

Здесь si (skill) – «истинная сила игры» шахматиста, pi (performance) – его сила игры, показанная в данной конкретной партии, а r – довольно интересно устроенная случайная переменная, показывающая результат партии, который получается из сравнения p1 и p2. Подробнее об этом сегодня не будем.

И закончу ещё одним близким мне примером – моделями поведения интернет-пользователей в поисковых системах. Опять же, подробно вдаваться не буду – может быть, ещё вернёмся к этому, а пока можно почитать, например, нашу с Александром Фишковым обзорную статью – просто рассмотрю одну такую модель для примера. Мы пытаемся смоделировать, что делает пользователь, когда получает поисковую выдачу. Просмотр ссылки и клик трактуются как случайные события; для конкретной запросной сессии переменная Ei обозначает просмотр описания ссылки на документ, показанный на позиции i, Ci – клик на этой позиции. Введём упрощающее предположение: предположим, что процесс просмотра описаний всегда начинается с первой позиции и строго линеен. Позиция просматривается, только если все предыдущие позиции были просмотрены. В итоге наш виртуальный пользователь читает ссылки сверху вниз, если ему понравился (что зависит от релевантности ссылки), кликает, и, если документ действительно оказывается релевантным, пользователь уходит и больше не возвращается; любопытно, но факт: для поисковой системы хорошее событие – это когда пользователь как можно быстрее ушёл и не вернулся, а если он возвращается к выдаче, значит, не смог найти то, что искал. В результате получается так называемая каскадная клик-модель (cascading click model, CCM); в ней пользователь следует вот такой блок-схеме: А в виде байесовской сети это можно нарисовать вот так:
Здесь последующие события Ei (это событие «пользователь прочитал следующий сниппет», от слова examine) зависят от того, был ли клик на предыдущей ссылке, и если был, то оказалась ли ссылка действительно релевантной. Задача же снова описывается так же, как выше: мы наблюдаем часть переменных (клики пользователя), и должны на основании кликов обучить модель и сделать выводы о релевантности каждой ссылки (для того чтобы в дальнейшем переупорядочивать ссылки согласно их истинной релевантности), т.е. о значениях некоторых других переменных в модели.
В этой статье мы рассмотрели несколько примеров вероятностных моделей, логика которых легко «считывается» из их направленных графических моделей. Кроме того, мы убедились: то, чего мы обычно хотим от вероятностной модели, можно представить в виде одной достаточно хорошо определённой задачи – в направленной графической модели пересчитать распределение одних переменных при известных значениях некоторых других переменных. Однако логика логикой, а как, собственно, обучать? Как решать эту задачу? Об этом – в следующих сериях.

Источник: https://habr.com/post/177889/

Информатика и ИКТ. Профильный курс. – Вероятностные модели

ВЕРОЯТНОСТНЫЕ МОДЕЛИ: Вероятностные модели составили наиболее многочисленную группу,

 Вероятностные модели
  • Испытание;
  • Серия испытаний;
  • Вероятность;

Со случайностью мы сталкиваемся каждый день. Можно случайно встретить на улице своего друга, можно случайно получить плохую оценку, выиграть в лотерею.

Но иногда случайные числа получаются искуственным образом. Например, определить случайным образом порядок выступления фигуристов на соревновании или номера лотерейны билетов, на которые попадет выигрыш.

Как в этом случае организовать случайную последовательность чисел?

Казалось бы разные вещи: случайность, организованная человеком и просто случайность. Однако, человек очень долго изучал случайность, чтобы научиться ее организовывать.

Случайность изначально присутствует во многих моделях (подбрасывание монеты, лотерея, элементарные частицы в ядерном реакторе, даже время телефонного разговора по линии связи).

Однако, нам необходимо управлять линиями связи и обеспечивать надежность реакторов. Для успешного решения задач со случайностями неободимо уметь:

– получать искусственную последовательность случайных чисел

– с помощью этой последовательности моделировать случайные события и находить параметры, необходимые для проектирования модели

ОСНОВНЫЕ ПОНЯТИЯ:

Для обсуждения случайных событий нужно организовать многократно повторяющийся опыт (Закон больших чисел). Каждое повторение опыта называют испытанием, а множество многократно проведенных испытаний в одном опыте – серией испытаний.

Частотой события А в какой-либо серии называется число, показывающее сколько раз произошло событие А в этой серии. Числовоей характеристикой случайного события является вероятность его наступления. Чем чаще происходит событие, тем больше вероятность его наступления.

Например, вероятность выпадения числа “1” в игральном кубике – 1\6.

Модели, в котоых используются вероятности моделируемых событий, называют вероятностными моделями.

ДАТЧИКИ СЛУЧАЙНЫХ ЧИСЕЛ И ПСЕВДОСЛУЧАЙНОСТЬ:

Как получить случайное число? В быту это сделать довольно просто. Например, кинуть игральный кубик. Здесь множество чисел будет содержать 6 вариантов: 1, 2, 3, 4, 5, 6.  Все эти события равновероятностны. Такая последовательность называется равномерно распределенной. 

Еще один способ – стрелять из лука по мишени. Здесь множество возможных значений бесконечо много. Вероятность появления очередного числа неодинакова для разных чисел. Это неравномерно распределенная последовательность.

Можно раскладывать карты, бросать кости, вытаскивать шары из коробки и т.д.

Обычно нужна не любая последовательность чисел, а удовлетворяющая некоторым условиям. 

В 1927 году Л.Триппет опубликовал таблицы, содержащие свыше 40000 случайных цифр, произвольно взятых из отчетов о переписи. Позже были сконструированы специальные машины, механически вырабатывающие случайные числа (М.Дж. Кнедалл – 100000 случайных цифр)

Для использования в компьютере таки таблицы не подходят, т.к. будут занимать слишком много места в оперативной памяти. Поэтому сначала к ЭВМ подключали датчики случайных чисел, основанные на различных физических эффектах (шум электронных ламп, излучение радиоактивных веществ и т.д.).  Но датчики были слишком медленными, дорогими и небезопасными.

 Несовершенство этих методов пробудило интерес к получению случайных чисел  помощью арифметических операций самого компьютера. Первым такой подход предложил в 1946 году Джон фон Нейман. Идея состояла в том, что нужно только самое первое случайное число.

А дальше применяется следующее рекуррентное правило: число возводится в квадрат и из результата берется середина. Фактически строится рекуррентно заданная последовательность чисел. А где же здесь случайность? Никакой случайности здесь нет. Но получаемые таким способом числа ведут себя как случайные.

Частота появления любого числа в этой последовательности примерно одинкова. А в моделировании именно это и надо! В результате, вместо последовательности случайных чисел мы имеем ее модель, сохраняющую самое главное свойство: равномерное распределение вероятностей появления членов этой последовательности.

Такие последовательности называются псевдослучайными. Алгоритм получаения псевдослучайного числа называется датчиком случайных чисел

МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ ПРОЦЕССОВ:

Вероятностные процессы часто применяются в системах массового обслуживания (телефонная станция, станция “Скорой помощи”, магазин и т.д.). Во все этих примерах есть две черты, и объединяющие: 

1) требуется обрабатывать некоторые объекты, поступающие постоянно, но через случайные промежутки времени;

2) время на обработку каждого объекта тоже случайная величина.

Такие системы называют системами массового обслуживания

Для моделирования систем массового обслуживания надо знать характер тех “случайностей”, которые описаны в пунктах 1 и 2. Для этого проводятся статистические наблюдения и измерения. Поэтому для разных систем массового обслуживания получаются разные модели. 

Рассмотрим модель кассового обслуживания в магазине.

В разное время суток интенсивность посещения магазина покупателями различна. Мы выберем интервал времени, когда интенсивность не сильно меняется и можно считать, что количество покупателей, приходящих в магазин в течение минуты, – это равномерно распределенная случайная величина, принимающая целые значения в интервале от 0 до N.

Также равномерно распределенной величиной будем считать время, которое требуется кассиру на обслуживание покупателя. Пусть данная величина изменяется в пределах от T0 до T1.

Прежде чем подойти к кассе, покупатель проводит некоторое время в торговом зале, выбирая товары. Это тоже случайная величина, и пусть она равномерно распределена в интервале от V0 до V1.

Нужно найти такое число k – количество касс, чтобы очередь в каждую из ни не превышала m человек. 

Т.о. для моделирования процесса обслуживания покупателей нам 3 раза требуется случайное число: количество покупателей в магазине, время обслуживания одного покупателя кассиром, время пребывания покупателя в торговом зале для выбора товаров.

EXEL:

Пусть по истечении t минут в торговом зале находятся а покупателей. За следующую минуту в магазин зайдет еще INT((N0+1)*ДСЧ) покупателей. 

Т.о. а(t+1) = a(t) + INT ((N0+1)*ДСЧ)- b(i),

ДСЧ – датчик случайных чисел

INT – целое случайное число.

b(t) – количество покупателей, оплачивающих в кассах покупки в течение t-й минуты.

b(t)=INT((V1-V0)/V1*a(t) +1)*ДСЧ).

d=k/((T1-T0)*ДСЧ+T0)

r=s/T

Количество работающих касс – k. Доля плохих минут – r.

  ВОПРОСЫ:

  1. В каких жизненных ситуациях вы пользовались случайными числами? Как вы получали такие числа?

2. Что такое частота случайного события? Что такое вероятность события?

3. Для указанных ниже опытов определите, в каких случаях вероятность исходов может быть получены умозрительными заключениями, а в каких нужно провести испытания:

а) Подбрасывание кнопки. Исходы: кнопка упала острием вверх, кнопка упала на острие.

б) Вытаскивание бочонка для игры в лото. Исходы: вынут бочонок с числом 1, вынут бочонок с числом 2, … вынут бочонок с числом 90.

в) Подбрасывание бутерброда. Исходы: упал маслом вверх, упал маслом вниз.

г) Удар по воротам в футбольном матче. Исходы: гол забит, гол не забит.

Компьютерный практикум:

Проверить метод фон Неймана для двухзначных чисел. Установить как ведет себя последовательность в зависимости от выбора первого числа последовательности. 

Источник: https://doma10.ucoz.ru/index/verojatnostnye_modeli/0-216

Вероятностные модели

ВЕРОЯТНОСТНЫЕ МОДЕЛИ: Вероятностные модели составили наиболее многочисленную группу,

Подвероятностной будем понимать модель,в которой все или хотябы некоторые переменные принимаютслучайные значения или являются ихфункциями, для описания которых необходимматематический аппарат теории вероятностейи математической статистики.

Построениеи исследование вероятностных моделейконструкцийРЭС является одним из этапов ихпроектирования. При этом в практикепроектирования вероятностные моделииспользуют для описания производствакак системы массового обслуживания, взадачахрасчета показателей надежности РЭС ипри обработке экспериментальныхрезультатов.

Производствокак система массового обслуживания.Практическилюбой технологический процесс можнопредставить в виде системы,на вход которой, соблюдая определеннуюдисциплинуочереди,поступаетпотокзаявокнаобслуживание.

По истечении времениожиданияичерез некоторое времяобслуживаниянавыходепоявляется выходнойпотокобслуженныхзаявок, принявших новыйвид в соответствии с алгоритмом икачественным содержанием обслуживания.

Совокупность этих процедур и их параметровпринятоназывать системоймассового обслуживания.

Вобщем случае для принятой дисциплиныочереди моменты поступления заявок,время ожидания и обслуживания имеютслучайныезначения. Методы количественной оценкизначений па­раметрових распределения дает теория массовогообслуживания.

Системымассового обслуживания подразделяютсяпо числу обслуживаемыхпотоков заявок (одноканальные имногоканальные), дисциплинеочереди (упорядоченные и неупорядоченные),времениожидания (с ожиданием и с отказами наобслуживание), числу пунктов обслуживания(с ограниченным и неограниченнымчислом обслуживающих аппаратов).

Дляописания потока заявок, времени ожиданияи обслуживанияиспользуют соответствующие функциираспределения P(t)длительностиинтервалов между событиями входногопотока и длительностиинтервала ожидания или обслуживаниялибо соответствующую функцию плотностиf(t)Чаще всего используютэкспоненциальный закон распределения:

P(t)= ехр(-λt ); f(t)=–P(t)= ехр(-λ ), где λ — параметр потока.

Этораспределение характеризует простейший(пуассоновский) поток,обладающий свойствами стационарности(λ= const),ординарности(вероятность появления двух и болеесобытий в интервале Δtравна нулю) и отсутствия последействия(вероятность появлениясобытия в интервале τ, следующем за интервалом Δt , не зависит от вероятности появлениясобытия в интервале Δt . Крометого, в приложениях используют другиетипы потоков:Пальма,Эрланга, Бернулли и просеянные, свойстваи параметры которыхотличны от свойств и параметровпростейшего потока. Описания этихпотоков можно найти в соответствующихизданиях по теории массового обслуживания.

МоделиРЭС в задачах расчета надежности.

Надежность—это свойствоизделий сохранять свою работоспособностьв течение заданноговремени в заданных условиях эксплуатации.

Одним из фундаментальныхпонятий в теории надежности являетсяпонятиеотказа—события, наступившего через некотороевремябезотказнойработы изделияи характеризующего его неработоспо­собноесостояние. Работоспособность отказавшегоизделия может бытьвосстановлена через некоторое времявосстановления.

Совокупностьмногих циклов отказ— восстановлениедо полного изно­са изделия образуетего ресурс,аспособность изделия сохранять споюработоспособность в нерабочем состояниихарактеризует его ресурсхранения.

Длялюбого изделия время безотказной работы,время восста­новления работоспособности,функциональный ресурс и ресурс храненияимеют случайные значения. Методы ихколичественной оценкидает теория надежности.

Потокотказов описывают следующимираспределениями:

экспоненциальнымP(t)= ехр(- λt);

ВейбуллаP(t)=ехр(-λtδ);

нормальными логарифмически нормальным, функцииплотностикоторых f(t) и f(z)соответственноимеют вид

….

где λ, β— параметры; σtm{t}— соответственносреднеквадратичныеотклонения и математические ожиданияслучайныхзначений tиz;z=lgt.

Приэтом экспоненциальное распределениеявляется моделью безотказности«нестареющих» элементов. С помощьюраспределе­нияВейбулла моделируют отказы на различныхстадиях цикла жизниизделий. Нормальное распределениеявляется моделью безотказности«стареющих» элементов, а с помощьюлогарифмическинормального распределения моделируютотказы из-за уста­лостии износа материалов конструкций.

Методыобработки экспериментальных данных.Известно,что находящеесяв пределах допуска значение электрическогопараметраотдельного ЭРК (сопротивление резистора,емкость конденсатора,коэффициент передачи тока транзистораи др.) имеет случайноеотклонение от его номинального значения.

Вся совокупностьзначений параметра данного номиналаможет быть описана вероятностной модельюв виде функций распределения илиплотности. Знание этих функций и ихпараметров способствует выявлениюпроизводственного брака.

Эти функциистроят в статистическом виде на основеданных измерения, полученных для партииоднотипных изделий.

Расхождениемежду истинным распределением и егостатистическимпредставлением при увеличении объемаэксперименталь­ныхданных стремится к нулю.

Следовательно,в случае когда статистическоераспределение построено по ограниченномуобъему экспериментальныхданных, необходимо оценить вероятностьошибки,которая при этом может быть допущена.

Так как истинное распределение частонеизвестно, то оценивают сходимостьстатистического распределения и одногоиз известных теорети­ческихраспределений. Кроме указанных ранеераспределений при этомиспользуют равномерное распределение,распределение Рэлеяи γ-распределение.

Дляпостроения статистического распределениярезультаты наблюденийхi(i= 1,2, …, n)располагают в порядке возрастания(убывания) значений, образуя вариационныйряд.

При большомчисле значений (п>100)строят статистический ряд, для чегофиксируют значения xmaxи xmin,делят диапазон изменений [xmaxxmin,]наlинтервалов Δxj = xj+1 -xj ,гдеj= 1, 2, …

,l; xmin,= х1; xmax=хl+1; ) ирассчитываютчастоты попадания хi в –j-йинтервал:

fj*=pj*/Δxj; pj*=nj/n; ∑j=1pj*=1

гдеpj*— оценкапарциальной вероятности числа событийв j-минтервале.

Графическимизображением статистического рядаявляется гистограмма f*(x)(рис.3.5, а) — статистический аналог функцииплотностираспределения. Линия, соединяющая центрыплоских вершинкаждого отрезка, образует полигончастот.

Рис.3.5. Статистическое представлениерезультатов измерений:

а— гистограмма;

б— функциянакопленной частоты

Способгруппирования значений хi,-может изменить вид гистограммы.

Число интервалов группировки lдолжно обеспечивать выделениеосновных свойств распределения(модальности, симметрии,плосковершинности) и нивелирование егослучайных колебаний.

Поэтому на практике область определения[хmах…xmin]делятна l(/ > 5) интервалов таким образом, чтобыв каждый интервал х,- попало не менее пяти результатовнаблюдений х.

Статистическиманалогом функции распределения являетсязависимостьнакопленной частоты вида F*(x)= р(хj< х),где j= 1, 2,…, п(рис.3.5, б).

Прих< xminфункция F*(x)= 0;при хi< х < хi+1 функцияF*(x)= i/n;прих > хmахфункция F*(x)= 1.

Далееследует процедура выравниваниястатистического распределенияи представления его в виде аналитическойзависимости,т.е.

соотнесения по вероятности к одномуиз известных теоретическихраспределений по результатам сравнительногоанализа параметров теоретического истатистического распределений: значенийкоэффициентов вариации v(x~),асимметрииAs*(х~)иэксцессаε*(х~),

Напрактике выбор подходящего теоретическогораспределенияможет оказаться ошибочным, особеннопри небольшом числеопытов (п< 100).Поэтому для выявления этих ошибок послевыборатеоретического распределения и вычисленияего параметровпроверяют степень согласованноститеоретического и статистическогораспределений.

Есливеличина х~подчиняется одному из известныхтеоретических распределений, то сувеличением числа ее реализаций пстатистическоераспределение будет сходиться к данномутеоретическомураспределению, т. е. мера расхождения Uмеждузначениямифункций плотности f*(х)и f(х)будет уменьшаться. Саммера расхождения вида:

Ũ= ∑nj=1Cj(p~jpj)

(гдесj – весовыекоэффициенты)также является случайной, так как приповторении экспериментаUбудетменяться из-за изменения частот pj.

Тогдаоценкой согласованности рассматриваемыхраспределенийможет быть вероятность того, что толькоиз-за случайных причин,вызванных недостаточным объемомстатистического материала,мера расхождения Ũдолжнабыть не меньше вычисленного вэксперименте значения U,т.е.p(ŨU).Прибольших значениях вероятностиможно утверждать, что гипотеза о данномтеоретическомраспределении не противоречитстатистическим данным.

Ответна вопрос, при каком малом значении p(ŨU)следуетотвергать гипотезу о принятом теоретическомраспределении, являетсянеопределенным. На практике этавероятность должна быть больше 0,1.

Правило, по которому принимают илиотклоняют даннуюгипотезу, называют статистическимкритериемсогласия( χ2) ).Построениеэтого критерия связано с выборомподходящей функции— статистикикритериядлямеры расхождения Ũмеждустатистическимии теоретическими значениями.

Известныкритерии согласия Пирсона, Колмогороваи Мизеса (ГОСТ 11006—74. Правилапроверки согласия опытного распределенияс теоретическим).

Рассмотримкратко критерий согласия Пирсона. Вданном критериив качестве статистики использованафункция, в которой весовыекоэффициенты сj=npjикоторую называют -статистикойПирсона:

Ũ= χ2= nlj=1(pj*-pj)2/pj=lj=1(njnpj)2/npj

Даннаяфункция обладает тем свойством, что прибольшом числепреализацийх~видраспределения практически не зависитотп,азависит только от числа lинтервалов группирования реализацийх~.Приувеличении праспределениеŨприближаетсяк χ2-распределениюс rстепенямисвободы, плотность которого

f(U)=[2r/2Г(г/2)]-1ехр(-(U/2) приU>0;f(U)= 0 при U0,

где Г(r/2)= 0t0,5r-1exp(-t)dtгамма-функция;r= ls1-числостепеней свободы; sчислонезависимых связей, накладываемыхна частоты f*j(число вероятностных моментов m(x~),D(x~)идругих, вычисляемых через частоты f*j,которымидолжно обладатьтеоретическое распределение).

Приэтом χ2 -распределение имеет следующуюинтерпретацию: если твзаимнонезависимых стандартизованных случайныхзна­ченийUk= (xkξk )σkимеютнормальное распределение, то сумма ихквадратов γ= ∑mk=1Uk2 имеет χ2-распределениес тстепенямисвободы Таким образом, для оценки степенисогласованности статистическогои теоретического распределений х~необходимо, используя χ2 -распределение для принятой мерырасхождения этих распределений,вычислить вероятность P(χ~2χ2)того, что по случайнымпричинам количественное значение этоймеры превыситрассчитанную меру расхождения Ũ,т.е.

P(χ~2χ~2)=χ2f(u)du

Еслиэта вероятность больше 0,1, то гипотезуо принадлежностивыборки нормальному распределениюможно признать не противоречащейстатистическим данным.

Недостаткамикритерия χ2являютсяего зависимость от числа lинтервалов группирования (l≥7) и необходимость большого числа преализаций(п≥ 100),приэтом число пjреализаций,попавших в каждый интервал, должнобыть не менее пяти, так как χ2 -распределение справедливо при n ∞ .

Источник: https://studfile.net/preview/3802253/page:4/

Medic-studio
Добавить комментарий