Вероятность события. Определение вероятности события. Оценка вероятности события риска

Количественная оценка риска.

Количественная оценка риска позволяет наиболее точно судить о его величине, но при применении данного метода необходимо использование также аналитических процедур и математических методов. Для оценки количественной величины риска следует прежде всего выбрать показатели, по которым будет производиться выбор решения. Количественные показатели – система физических, натуральных и условных единиц, поэтому при количественной оценке риска могут быть использованы килограммы, количество дней просрочки платежа, рубли, проценты, коэффициенты и т.д. Выбор показателей зависит от вида оцениваемого риска и от целей, которые поставлены при принятии решения, т.е. в каждом случае выбирается соответствующий показатель и устанавливается его критериальная величина.

Основополагающим методом выбора решения является альтернатива – выбор между двумя или несколькими исключающими друг друга возможностями, при этом выбирается то решение, которому соответствует предпочтительная величина хозяйственного риска. В основе метода альтернативы лежит процесс сравнения. Необходимость оценки риска существует в следующих ситуациях:

1) ситуация определенности: когда все ожидаемые результаты точно известны и определены однозначно;

2) ситуации риска:

Когда возможен определенный набор альтернатив решения, при котором вероятности наступления каждого из вариантов можно определить статистически или экспертно, при этом рассматривается только стратегия ЛПР,

Когда возможен определенный набор альтернатив решения, при котором вероятности наступления каждого из вариантов можно определить статистически или экспертно, при этом учитываются не только действия ЛПР, но и действия другой стороны, участвующей в этой хозяйственной ситуации;

3) ситуации неопределенности:

Когда неизвестно заранее, какие варианты решений будут осуществлены, и нет никаких сведений о вероятности их наступления, но возможно определение диапазона, в котором будут находиться данные величины,

– когда неизвестно заранее, какие варианты решений будут осуществлены, и нет никаких сведений ни о вероятности их наступления, ни о диапазоне, в котором могут находиться данные величины.

Следует заметить, что каждой из перечисленных ситуаций присущи неопределенность и риск, но в разной степени, поэтому определение величины риска производится специальными методами.



В первой ситуации устанавливается цель оптимизации, выбирается показатель оценки риска и критерий его оценки, производятся

необходимые расчеты, а после сравнения результатов расчетов с критериями выбирается наиболее приемлемый вариант решения.

Для оценки риска во второй ситуации, как правило, используется метод теории вероятности. Однако, как отмечает П. Бернстайн, вероятность всегда несет в себе двоякий смысл: с одной стороны, это взгляд в будущее, с другой - истолкование прошлого; с одной стороны, речь идет о наших предположениях, с другой - о том, что мы действительно знаем . Часто вероятные события трактуются поразному в зависимости от точки зрения. Возникают два аспекта данной проблемы:

Блок «Управление бухгалтерскими рисками»

Применение теории вероятности для оценки риска.

При применении метода теории вероятности рассчитываются следующие показатели: математическое ожидание случайной величины, выбранной в качестве показателя оценки риска, ее абсолютная колеблемость (дисперсия, среднеквадратичное отклонение) и относительная колеблемость (коэффициент вариации), чем больше колебание лучайной величины, тем больший риск ей соответствует. При расчете данных показателей используются следующие формулы:

1) математическое ожидание случайной величины (хi):

Где p(xi) - вероятность наступления соответствующего события хi,

x - ожидаемое значение случайной величины хi;

2) дисперсия случайной величины:

3) среднеквадратичное отклонение случайной величины:

4) коэффициент вариации:

Существуют два метода определения вероятности наступления

события: объективный и субъективный, при применении которых исходят из аксиом классической теории вероятности:

1) вероятность случайного события x находится в диапазоне от 0 до 1:

2) полная группа событий - это такая их совокупность, из которой одно обязательно должно произойти, притом:



3) действуют теории сложения и умножения вероятностей.

Объективный метод основан на исчислении частоты, с которой

Тот или иной результат был получен в аналогичных условиях. Расчет вероятности (pi) осуществляется по формуле

где n - число событий с i$м исходом;

N - общее число наблюдаемых событий, относящихся к данной случайной величине.

Таким образом, хозяйствующий субъект объективным способом может определить вероятность, если у него есть некоторый опыт или иная информация в области оцениваемых событий. Оценить объективную вероятность наступления события также можно с помощью леммы Маркова и неравенства Чебышева. Применение этих показателей не требует большого количества накопленного статистического материала и времени на его сбор, ведь в экономике часто происходят уникальные события, не имеющие аналогов. Согласно лемме Маркова, если случайная величина х не принимает отрицательных значений, то для любого положительного числа справедливо следующее неравенство:

соответствии с неравенством Чебышева:

Данное неравенство позволяет находить верхнюю границу вероятности того, что случайная величина х отклонится в обе стороны от своего среднего значения на величину больше, чем е. Достоинством леммы Маркова и неравенства Чебышева является то, что они применимы при любом количестве наблюдений и любом законе распределения вероятностей.

Понятие «субъективная вероятность» было введено Джоном Мейнардом Кейнсом. Оно используется для часто встречаемых в экономике и бизнесе событий, при определении вероятности наступления которых невозможно ни применить расчет, ни поставить опыт. При оценке уровня субъективной вероятности эксперт, т.е. тот, кто оценивает вероятность, исходит из отношения правдоподобия (принципа безразличия), согласно которому одинаково правдоподобные события или суждения должны иметь одинаковую вероятность: если событие А одинаково правдоподобно с событием В, то p(А) = p(В). Более правдоподобные события должны иметь большую вероятность


Введение

Оценка риска - это этап анализа риска, имеющий целью оп­ределить его количественные характеристики: вероятность насту­пления неблагоприятных событий и возможный размер ущерба (рис.1). Можно выделить три основных метода оценки риска для конкретных процессов:

Анализ статистических данных по неблагоприятным событиям, имевшим место в прошлом;

Теоретический анализ структуры причинно-следственных свя­зей процессов;

Экспертный подход.


Рис.1. Общая схема процесса количественной оценки риска


Используя имеющиеся статистические данные, можно оценить и вероятность возникновения неблагоприятных событий, и размеры ущерба. Этот метод подходит для частых и однородных событий.

Для редких и уникальных событий, например крупных аварий, не имеющих репрезентативной статистики, используется теоретиче­ский анализ системы, имеющий целью выявить возможный ход раз­вития событий и определить их последствия. Условно такой метод можно назвать сценарным подходом, поскольку итогом рассмотре­ния процесса в этом случае является построение цепочек событий, связанных причинно-следственными связями, для каждой из кото­рых определена соответствующая вероятность. В начале цепочки стоит группа исходных событий, называемых принтами, в конце - группа событий, называемых последствиями.

Существует ряд принципиальных сложностей, связанных с оценкой риска при помощи сценарного подхода. Используемые математические модели и методы для расчета последствий аварий и отказов оборудования содержат внутри себя значительную неоп­ределенность, связанную с большой сложностью моделируемых объектов и недостаточным знанием путей развития неблагоприят­ных процессов. Поэтому большое значение для разработки страте­гии управления рисками крупных производственных предприятий и повышения точности расчетов имеет создание баз данных по от­казам элементов оборудования, проработка различных вариантов и создание базы данных по сценариям развития аварий, а также по­вышение качества сбора первичной статистической информации.

Среди методов оценки вероятности наступления небла­гоприятных событий наиболее известными являются следующие:

Метод построения деревьев событий;

Метод «События - последствия»;

Метод деревьев отказов;

Метод индексов опасности.

Метод построения деревьев событий - это графический способ прослеживания последовательности отдельных возможных инцидентов, например отказов или неисправностей каких-либо элементов технологического процесса или системы, с оценкой ве­роятности каждого из промежуточных событий и вычисления суммарной вероятности конечного события, приводящего к убыт­кам.

Дерево событий строится, начиная с заданных исходных собы­тий, называемых инцидентами. Затем прослеживаются возможные пути развития последствий этих событий по цепочке причинно- следственных связей в зависимости от отказа или срабатывания промежуточных звеньев системы.

В качестве примера такого анализа рассмотрим построение дерева событий для случая развития аварии в виде пожара или взрыва на компрессорной станции (КС) магистрального газопро­вода. Исходным событием при этом является утечка газа вслед­ствие нарушения уплотнений аппаратуры или разрыва трубо­провода.

Предположим, что в данном случае функционирует простей­шая схема предупреждения пожара, состоящая из четырех после­довательных звеньев - систем: контроля утечки газа; авто­матического прекращения подачи газа в поврежденный участок трубопровода"; аварийной вентиляции; взрыво- и пожарозащиты (рис.2).

Все элементы схемы развития аварии обозначены в верхней части рисунка в соответствующей последовательности. На каж­дом шаге развития событий рассматриваются две возможности: срабатывание системы (верхняя ветвь дерева) или отказ (нижняя ветвь). Предполагается, что каждое последующее звено срабаты­вает только при условии срабатывания предыдущего. Около каж­дой ветви указывается вероятность отказа (Р), либо вероятность срабатывания (1-Р). Для независимых событий вероятность реа­лизации данной цепочки определяется произведением вероятно­стей каждого из событий цепочки. Полная вероятность событий указывается в правой части диаграммы. Поскольку вероятности отказов, как правило, очень малы, а вероятность срабатывания есть 1-Р, то для всех верхних ветвей в данном примере вероят­ность считается приблизительно равной 1.

Построение дерева событий позволяет последовательно про­следить за последствиями каждого возможного исходного события и вычислить максимальную вероятность главного (конечного) со­бытия от каждого из таких инцидентов. Основное при этом - не пропустить какой-либо из возможных инцидентов и учесть все промежуточные звенья системы.

Срабатывание

Срабатывание 1-P f Срабатывание 1- P d 1-P c Начальное Срабатывание событие 1-P b P f Р a Pf Отказ Р a P d Р a P d Отказ P c Р a P c Отказ

Рис.2. Общая схема развития аварии и построение соответствующего ей дерева событий

Конечно, такой анализ может дать достоверный результат ве­роятности главного события только в том случае, если достоверно известны вероятности исходных и промежуточных событий. Но это и непременное условие любого вероятностного метода.

Анализ риска может происходить и в обратную сторону - от известного последствия к возможным причинам. В этом случае мы получим одно главное событие у основания дерева и множество возможных причин (инцидентов) в его кроне. Такой метод называ­ется деревом отказов и фактически представляет собой инверсию рассмотренного здесь дерева событий. Оба метода являются вза­имно дополняющими друг друга.

Метод «События - последствия» (СП-метод; в англоязыч­ной литературе имеет название HAZOR - Hazard and Operability Research) - это тот же метод деревьев событий, но только без ис­пользования графического изображения цепочек событий и оценки вероятности каждого события. По существу, это критический ана­лиз работоспособности предприятия с точки зрения возможных неисправностей или выхода из строя оборудования, который на этапе проектирования широко используется в промышленности. Основная идея - расчленение сложных производственных систем на отдельные более простые и легче анализируемые части. Каждая такая часть подвергается тщательному анализу с целью выявить и идентифицировать все опасности и риски.

В рамках рассматриваемого метода процесс идентификации риска разделяется на четыре последовательных этапа, на каждом из которых следует ответить на свой ключевой вопрос:

1- й этап - каково назначение исследуемой части установки или процесса?

2- й этап - в чем состоят возможные отклонения от нормаль­ного режима работы?

3- й этап - в чем причины отклонений?

4- й этап - каковы последствия отклонений?

Сначала следует выделить одну из частей установки или про­цесса и определить ее назначение. Очевидно, что это ключевой момент, поскольку, если назначение установлено неточно, то и от­клонения параметров от нормального режима работы нельзя уста­новить точно. Исследование выполняется последовательно для каждой части установки. В целях обеспечения достоверности и полноты анализа необходимо, чтобы такая работа выполнялась группой специалистов-практиков, а не одним человеком.

После того как определены назначение и условия нормально­го функционирования всех частей установки или процесса, необ­ходимо перечислить возможные отклонения параметров от нормальных проектных значений. Перечень отклонений - это и есть, по существу, основное ядро исследований. Чтобы структу­рировать перечень отклонений, используются специальные клю­чевые слова.

Если какое-то измерение повторить несколько раз, получается серия результатов измерений или другими словами серия экземпляров случайной величины. Среднее бесконечного числа повторных измерений (что, конечно же, невозможно!), называется математическим ожиданием, это и есть истинное значение измеряемой величины. Чем больше измерений в серии, тем ближе ее среднее к математическому ожиданию – идеалу, к которому можно стремиться, но который нельзя достичь! Обычно математическое ожидание обозначают буквойМ , результаты отдельных измеренийХ 1, Х 2, …,X n , а среднее серии, ко-

торое также называется выборочной оценкой среднего или просто оценкой – Х . Разброс экземпляров случайной величины (например, результатов повторных анали-

зов) характеризуется дисперсией – средним квадратом отклонения, которая обозначается σ2 . На практике в ряде случаев удобнее пользоваться средним квадратичным, которое равно квадратному корню из дисперсии и обозначается σ. Дисперсия это средний квадрат всех возможных экземпляров случайной величины – т.е. в нашем случае бесконечного числа повторных анализов, такая же абстракция, как и математическое ожидание. На практике оно тоже оценивается по среднему квадратичному отклонению выборки и обозначаетсяS . Таким образом, мы всегда имеем дело как с идеальными значениями параметров распределенияM и σ, так и с их, полученными в эксперименте, выборочными

оценками Х иS .

Вероятность – это абстрактное понятие, которое касается возможности появления какого-либо события (например, того, что ошибка больше некоторой величины), обычно она заранее неизвестна. Ее можно оценить только, когда накоплен определенный опыт и частота появления события известна. Это называется оценкой вероятности по частоте.

2.2. Оценка вероятности по частоте

Вероятность события недоступна непосредственному наблюдению, мы видим только его частоту. Например, если в крови пациента 25% всех лейкоцитов это лимфоциты, то вероятность P при подсчете лейкоцитарной формулы встретить лимфоцит составляет 0,25. Однако, при просмотре 100 клеток мы не обязательно встретим точноP*= 25 лимфоцитов, их может быть иP*= 24 иP*= 26 и дажеP*= 30, не зависимо от опыта или прилежания работника, а только от случая. Как же узнать, сколько их могло бы быть, если бы можно было просмотреть все клетки? Прямо на этот вопрос ответить нельзя, зная частоту можно только указать диапазон в котором с заданной вероятностью находится ответ.

Каждая клетка либо лимфоцит, либо не лимфоцит, подобно тому, как брошенная монета падает либо орлом, либо решеткой. Такое распределение называется биноминальным. Среднее квадратичное отклонение вычисляется по формуле:

P (1− P )

Здесь P – вероятность того, что в поле зрения именно клетка данного вида (т.е. истинная их доля), 1-P -вероятность что это другая клетка,n – число посчитанных клеток. Зная эти параметры, можно оценить каких результатов следует ожидать при подсчете формулы. На практике обычно приходится решать обратную задачу – при просмотре мазка получились такие-то результаты (известна частота события), что можно сказать о вероятности? Более подробные расчеты показывают, что если событий больше 10% и меньше 90%, границы доверительного интервала математического ожидания (т.е. истинного значения) достаточно точно можно найти по формулам:

P * − t P * (1− P *)

P * +t P * (1 − P * )

Здесь Р н иР в нижняя и верхняя границы доверительного интервала,Р * частота (найденная доля клеток) ,n общее число событий (число просмотренных клеток),t – коэффициент, который зависит от доверительной вероятности:

Так, если при подсчете лейкоцитарной формулы посчитано 100 клеточных элементов, и из них Р* оказались лимфоцитами, то с 95% вероятностью их истинная доля находится между:

P *− 1,96

P *(P *− 1)

и P *+ 1,96

P *(P *− 1)

То же самое относится и к любым другим событиям или явлениям, например результатам опытов или числу заболеваний данной болезнью – Р * наблюдаемая доля (частота),n общее число наблюдений или опытов.

2.3. Нормальное распределение и распределение хи-квадрат

Теория нормального распределения бала заложена еще Гауссом в 18 веке, затем развита и разработана Лапласом, однако условия его возникновения раскрыл только Ляпунов, который доказал центральную предельную теорему. Суть ее заключается в том, что если какая-то величина есть результат сложения многих независимых случайных величин, она распределена нормально, не зависимо от того, по какому закону распределены составляющие ее слагаемые. В качестве примера можно привести время ожидания поезда метро. Каждый пассажир приходит независимо от других и имеет равную вероятность прождать любой отрезок времени между поездами. Такое распределение называется равномерным. Легко убедиться на примерах, что среднее время ожидание двумя случайными пассажирами уже не распределено равномерно, а имеет пик в середине интервала. Если же наблюдать за 6 или 7 пассажирами, то распределение их среднего времени ожидания практически не отличается от нормального.

Аналогичная картина складывается и при выполнении лабораторных анализов – если грубые погрешности исключены, а результаты не совпадают в силу мелких случайных причин: легкой липемичности, хлопьев белка или инородных частиц, пузырьков воздуха, загрязнения реактивов, мерцаний источника света, контаминации предыдущей пробой и т.д. , распределение результатов повторных исследований одного и того же материала должно подчиняться нормальному закону. Если этого нет, вероятнее всего, имеется какаято доминирующая погрешность, которая может быть устранена.

Плотность нормального распределения задается функцией:

x − M2

f (x )=

Вероятность, что случайная величина больше X1 и меньше X2 равна соответствующему участку площади под кривой, т.е. интегралу. Он называется функцией Лапласа, обозначается греческой буквой Φ, не может быть выражен в элементарных функциях, но опубликован в специальных таблицах. Обычно, когда говорят о нормальном распределении, имеют в виду одномерное нормальное распределение, это значит, что речь идет об одной случайной величине. График плотности ее распределения можно нарисовать на плоскости. Если же случайных величин две, например, выполнено два анализа одного и того же контрольного материала, распределение результатов описывается двумерным нормальным распределением, вид которого представлен на рис. 2.

Это уже пространственная фигура, она показывает плотность вероятности всех возможных комбинаций обоих величин, в этом случае говорят об их совместном распределении.Аналогично, если случайных величин три речь идет о трехмерном нормальном распределении, в общем случае о многомерном распределении. Естественно встает вопрос как посчитать вероятности таких комплексных событий. Оказывается, что если все случайные величины распределены по нормальному закону с одинаковыми параметрами, т.е. являются разными экземплярами одной и той же нормально распределенной случайной величины, вероятность каждой их комбинации определяется суммой квадратов. Если известны среднее значение M и средняя квадратичная σ, которые должны получиться при анализе данного контрольного материала, то статистики говорят, что математическое ожидание генеральной совокупности всех правильно выполненных анализовM , а дисперсия σ2 . Допустим, выполнено три анализа, результаты которых X1 , X2 и X3 несколько отличаются от M. Чтобы определить, случайное это отличие или неслучайное, надо узнать совместную вероятность того, что X1 , X2 и X3 взяты именно из генеральной совокупности всех правильно выполненных анализов. Если она больше чем 0,05 (или при более строгом подходе больше чем 0,01), считается что различие случайно (не значимо), и результаты контроля хорошие. В противном случае считается, что полученные результаты не являются случайной выборкой из совокупности всех правильно выполненных анализов. О вероятности судят по сумме квадратов отклонений, которая по традиции обозначается греческой буквой хи во второй степени χ2 (читается хи-квадрат) и вычисляется по формуле:

χ 2=

(X1 − M) 2

(X2 − M) 2

(X3 − M) 2

σ 2

σ 2

σ 2

Вычислив χ2 по таблицам распределения хи-квадрат, находят искомую вероятность.

2.4. Погрешности

Никакое измерение не может быть абсолютно точным, всякое таит в себе возможность ошибки или погрешности, это одно и тоже. Аналитик всегда имеет определенное мнение о вероятности ошибки, даже если он его четко не формулирует – кто бы стал выполнять анализ, если бы считал, что результат может быть любым, ошибка не предсказуема!

Разрабатывая научные методы статистического контроля качества, надо четко формулировать законы распределения погрешностей измерения. Весь опыт работы аналити-

ческих лабораторий говорит о том, что чаще всего результаты повторный анализов распределены по нормальному закону, а также что существует два типа погрешностей – внутри серии (быстрые) и между сериями (медленные). Погрешность внутри серии при

каждом повторном измерении своя, она характеризуется дисперсией σ r 2 и средней 0, погрешность между сериями характеризуется дисперсиейσ d 2 средней 0, внутри каждой се-

рии она одинаковая. Реальная погрешность анализа есть сумма этих двух погрешностей. Иногда ошибки

делят на случайные и систематические, Систематические называют также сдвиг и биос, понимая под этим различие между средней многократно повторенного анализа и истинным значением. Такое разделение неоправданно, так как систематическая ошибка непостоянна: она может увеличиваться или уменьшаться в зависимости от обстоятельств, поэтому тоже является случайной величиной. Правильнее говорить не о систематической, а о межсерийной ошибке.

Конечно, никто не может утверждать, что погрешности медицинских лабораторных анализов всегда распределены по нормальному закону, тут возможны любые ситуации, поэтому контроль работы лаборатории должен начинаться с того, чтобы проверить, действительно ли результаты повторных анализов одного и того же материала распределены по нормальному закону. К сожалению, это сделать трудно – когда материала мало, заподозрить, что распределение ненормальное можно только, если оно явно асимметрично.

3. Контроль качества по данным анализов пациентов

Использование контрольных образцов для проверки качества работы всегда дорого – надо покупать сами образцы, требуются затраты на реактивы и работу, поэтому объем проверок неизбежно ограничен и возникает вопрос о статистической достоверности. Контроль по данным пациентов практически ничего не стоит – анализы ведь все равно выполняются, надо только иметь достаточно материала, компьютерную программу и умение. В большой лаборатории, которая ежедневно обслуживает сотню пациентов, контроль по их данным статистически очень достоверен, но не дает абсолютных величин и сопоставление результатов разных лабораторий (контингенты которых могут различаться) затруднено. Поэтому надо использовать оба варианта, разумно комбинируя их. Есть еще и промежуточный подход – так называемый метод «расщепленных» проб – когда несколько образцов проанализированного биологического материала, повторно исследуют на следующий день, это очень хороший способ оценить воспроизводимость результатов в разные дни.

Ниже описаны три способа использования данных пациентов для контроля качества.

3.1. Гистограммы

Просто и наглядно можно судить о качестве работы по данным пациентов строя гистограммы. В лаборатории, где ежемесячно выполняется несколько тысяч однотипных ис-

следований, и данные находятся в компьютере, это легко сделать. Чтобы построить гистограмму, все результаты разбивают на разряды, желательно одинаковой ширины, подсчитывают число случаев в каждом из них и рисуют столбики. Число случаев в каждом разряде это частота событий, руководствуясь описанными выше общими правилами по ней можно вычислить доверительный интервал вероятности и отложить его на графике. Это облегчает сравнение данных. Такая гистограмма приведена на рис.4.

Самое сложное это удачно выбрать ширину разряда – если она широка – теряется информативность, если узка – в каждом разряде мало случаев и различия могут быть случайными. Чтобы обойти эту трудность можно заменить гистограмму функцией распределения (рис. 5), когда на графике откладывается не доля анализов, которые попали в данный диапазон

значений, а доля результатов, которые меньше данной величины. В отличие от гистограммы, функция распределения практически непрерывна, она получается более плавной,

но различия не так бросаются в глаза.

Чтобы сделать гистограмму стандартной и «сглаженной» без потери информативности можно использовать следующий прием. Диапазоны разрядов выбираются так, чтобы в первые 15 разрядов попала половина результатов. Для этого находят такой результат анализа m , чтобыn 1 – число результатов меньшеm , было по возможности равноn 3 – числу результатов, которые большеm . Понятно, что точно они редко совпадают, так как каждый результат – это дискретное число, которое встречаются много раз. В том случае, когда результат анализаm встречаетсяn 2 раз, мы делимn 2 на две частиαn 2 и - (1α )n 2 , чтобытак выполнилось равенство:

n1 + αn2 =n3 + (1α–) n2

Понравилась статья? Поделиться с друзьями: