PPt4Web Хостинг презентаций

Главная / Алгебра / Теория вероятности и статистика
X Код для использования на сайте:

Скопируйте этот код и вставьте его на свой сайт

X

Чтобы скачать данную презентацию, порекомендуйте, пожалуйста, её своим друзьям в любой соц. сети.

После чего скачивание начнётся автоматически!

Кнопки:

Презентация на тему: Теория вероятности и статистика


Скачать эту презентацию

Презентация на тему: Теория вероятности и статистика


Скачать эту презентацию

№ слайда 1 Название дисциплины: Теория вероятностей и математическая статистика Очень кратк
Описание слайда:

Название дисциплины: Теория вероятностей и математическая статистика Очень краткое содержание курса лекций для факультета менеджмента Автор Дружининская И.М. 900igr.net

№ слайда 2 М. В . Ломоносов: «Математику уже затем учить следует, что она ум в порядок прив
Описание слайда:

М. В . Ломоносов: «Математику уже затем учить следует, что она ум в порядок приводит». Давид Гильберт: «Математика – основа всего точного естествознания». Теория вероятностей (ТВ) и математическая статистика (МС) – это ветви математики.

№ слайда 3 Повесьте ваши уши на гвоздь внимания !!!!!!
Описание слайда:

Повесьте ваши уши на гвоздь внимания !!!!!!

№ слайда 4 Раздел 1. Теория вероятностей Введение. Теория вероятностей – это математическая
Описание слайда:

Раздел 1. Теория вероятностей Введение. Теория вероятностей – это математическая наука, изучающая закономерности случайных событий. Математическая статистика – это наука об обработке больших массивов информации и получении практически значимых выводов на основе этой обработки. Случайные события – это события (явления), которые могут произойти, а могут и не произойти.

№ слайда 5 Примеры неслучайных событий: рождение – смерть, прилив – отлив, восход и закат с
Описание слайда:

Примеры неслучайных событий: рождение – смерть, прилив – отлив, восход и закат солнца. Становление теории вероятностей относится к эпохе Возрождения в Италии (15 век): итальянец Кардано (16 век) – «Книга об игре в кости»; Галилео Галилей (1564-1642) – «О выходе очков при игре в кости». Считается, что теория вероятностей зародилась как наука в переписке двух ученых Б. Паскаля (1623г.-1662г.) и П. Ферма (1601г.-1665г.); Якоб Бернулли, который в 1713г. выпустил книгу «Искусство предположений»; Колмогоров Андрей Николаевич (1903г.-1987г.) - год 1933 – аксиоматическое построение теории вероятностей..

№ слайда 6 § 1. Случайный эксперимент. Элементарные исходы случайного эксперимента. Случайн
Описание слайда:

§ 1. Случайный эксперимент. Элементарные исходы случайного эксперимента. Случайное событие. Реализация случайного события возможна в ходе случайного эксперимента (иначе: случайного опыта). Например, нас интересует событие «Выпадение герба при бросании монеты». Но для возможности возникновения этого события следует произвести опыт, состоящий в бросании монеты. Совокупность всех условий, при которых возможна реализация случайного события, носит название случайного эксперимента или случайного опыта. События обозначаем заглавными латинскими буквами: А, В, С, D,…

№ слайда 7 Некоторые из случайных событий можно разбить на более простые события.   Те собы
Описание слайда:

Некоторые из случайных событий можно разбить на более простые события.   Те события, которые нельзя разбить на другие более простые события, называются элементарными событиями или элементарными исходами случайного эксперимента. Совокупность всех элементарных исходов эксперимента носит название «множество (или пространство) всех элементарных исходов случайного эксперимента».   Обозначение: Ω = { ω1, ω2, … , ωn} Мы будем рассматривать задачи с элементарными исходами, которые являются равновозможными. Не всегда число элементарных исходов конечно, т. е. Ω может состоять из бесконечного числа исходов. Те элементарные исходы, при которых реализуется событие А, называются элементарными исходами, благоприятствующими наступлению событию А или просто благоприятными исходами.

№ слайда 8 § 2. Классификация случайных событий Достоверное событие – это событие, которое
Описание слайда:

§ 2. Классификация случайных событий Достоверное событие – это событие, которое обязательно произойдёт в данном случайном эксперименте. Обозначается символом Ω (поскольку включает все возможные элементарные исходы такого случайного эксперимента). Невозможное событие – такое событие, которое никогда не произойдёт в данном случайном эксперименте. Противоположное событие - это событие, состоящее в ненаступлении события А. События удобно изображать, используя множество точек на плоскости. Для этого используются диаграммы Эйлера - Венна (иногда – диаграммы Венна). События А и В называются несовместными, если они не могут произойти одновременно в одном и том же случайном эксперименте. События А и В называются совместными, если они могут произойти одновременно в одном и том же случайном эксперименте.

№ слайда 9 §3. Действия над событиями (исчисление событий) Объединением двух событий AUB ил
Описание слайда:

§3. Действия над событиями (исчисление событий) Объединением двух событий AUB или суммой двух событий (A+B) называется новое событие, которое заключается в наступлении хотя бы одного из событий A или B (наступает либо событие A, либо событие B, либо то и другое одновременно). Обобщение: Объединением нескольких событий называется событие, состоящее в одновременном наступлении хотя бы одного из данных событий. Пересечением двух событий А∩В (или АВ) называется новое событие, состоящее в одновременном наступлении этих двух событий.

№ слайда 10 Обобщение: Пересечением нескольких событий называется новое событие, состоящее в
Описание слайда:

Обобщение: Пересечением нескольких событий называется новое событие, состоящее в одновременном наступлении всех этих событий. Рассмотрены свойства операций объединения и пересечения событий, которые частично совпадают со свойствами операций сложения и умножения чисел, но не всегда. На основе этих свойств в дальнейшем из простых случайных событий формируются более сложные случайные события.

№ слайда 11 § 4. Вероятность случайного события.
Описание слайда:

§ 4. Вероятность случайного события.

№ слайда 12 n A / n.
Описание слайда:

n A / n.

№ слайда 13 § 5. Геометрическая вероятность. Геометрическая вероятность позволяет рассматрив
Описание слайда:

§ 5. Геометрическая вероятность. Геометрическая вероятность позволяет рассматривать случайные события с бесконечным числом равновозможных элементарных исходов. Геометрической вероятностью события А называется отношение меры области, благоприятствующей появлению события А, к мере всей области:

№ слайда 14 Комбинаторика – раздел дискретной математики, посвященный решению задач выбора и
Описание слайда:

Комбинаторика – раздел дискретной математики, посвященный решению задач выбора и расположения элементов конечного множества в соответствии с заданными правилами. § 6. Элементы комбинаторики Пусть имеется набор из n элементов. Отличающиеся друг от друга порядком наборы, составленные из всех элементов данного множества, называются перестановками этого множества. Обозначение:

№ слайда 15 Размещениями называются комбинации, состоящие из n различных элементов, содержащ
Описание слайда:

Размещениями называются комбинации, состоящие из n различных элементов, содержащие k элементов, отличающиеся либо составом элементов, либо их порядком (k ≤n). Число размещений вычисляется по формуле: Сочетаниями называются комбинации, составленные из n различных элементов, содержащие k элементов, которые отличаются только составом элементов (k ≤n).

№ слайда 16 Урновая модель (гипергеометрическое распределение): В урне имеется N шаров, из н
Описание слайда:

Урновая модель (гипергеометрическое распределение): В урне имеется N шаров, из них М - белых шаров, тогда (N-М) – черных шаров. Случайным образом вынули n шаров (n ≤ N). Какова вероятность, что среди вынутых оказалось m белых шаров (m ≤ M)? Рассмотрено также обобщение урновой модели.

№ слайда 17 §7. Условная вероятность. Независимые и зависимые случайные события. Пусть событ
Описание слайда:

§7. Условная вероятность. Независимые и зависимые случайные события. Пусть события А и В происходят на одном и том же пространстве элементарных исходов. Кроме того, пусть эти события являются совместными, т.е. могут произойти в одном и том же случайном эксперименте. Условная вероятность – это вероятность события A при условии, что произошло событие B. Обозначение: P(A/B) . Событие A не зависит от события B, если P(A)=P(A/B). Событие A зависит от события B, если P(A) P(A/B). Если A зависит от B, то и B зависит от A (события А и В – зависимые) . Если A не зависит от B, то и B не зависит от A (события А и В – независимые) .

№ слайда 18 §8. Основные теоремы теории вероятностей.   Теорема сложения вероятностей: Для с
Описание слайда:

§8. Основные теоремы теории вероятностей.   Теорема сложения вероятностей: Для совместных событий вероятность объединения событий определяется формулой: Для несовместных событий вероятность объединения событий определяется формулой:

№ слайда 19 Для трех совместных событий справедлива следующая формула: Обобщение формулы на
Описание слайда:

Для трех совместных событий справедлива следующая формула: Обобщение формулы на произвольное число совместных событий:

№ слайда 20 Теорема умножения вероятностей: Для зависимых событий вероятность пересечения со
Описание слайда:

Теорема умножения вероятностей: Для зависимых событий вероятность пересечения событий определяется формулой : Р(А∩В)=Р(А)·Р(В/А)= Р(В)·Р(А/В). Следствие: если события А и В – независимые, то Р(А∩В)=Р(А)·Р(В). Обобщение теоремы умножения вероятностей на случай многих событий: а) Для зависимых событий : б) Для независимых событий :

№ слайда 21 Формула полной вероятности Совокупность событий Н1, Н2,…, Нn назовём полной груп
Описание слайда:

Формула полной вероятности Совокупность событий Н1, Н2,…, Нn назовём полной группой событий, если они попарно несовместны и их объединение даёт достоверное событие. События Нi называются гипотезами. Теорема: Имеем полную группу событий Н1, Н2, …, Нn. Пусть событие А может происходить одновременно только с одним из этих событий, тогда:  

№ слайда 22 Формула Байеса Теорема (получение формулы Байеса): Эта формула позволяет пересчи
Описание слайда:

Формула Байеса Теорема (получение формулы Байеса): Эта формула позволяет пересчитывать исходные (априорные) вероятности гипотез после получения сведений о том, что событие А произошло. В результате получаем уточненные (апостериорные) вероятности гипотез, т.е. мы корректируем вероятности выдвинутых до испытания гипотез при получении новой информации о реализации события А.

№ слайда 23 §9. Повторные независимые испытания (схема Бернулли) Пусть в одних тех же услови
Описание слайда:

§9. Повторные независимые испытания (схема Бернулли) Пусть в одних тех же условиях проводится n повторных независимых испытаний, в каждом из которых с одной и той же вероятностью р может произойти определенной событие или же не произойти это событие с вероятностью q = 1- p. Ограничения модели: Каждое испытание имеет два исхода (наступление или же ненаступление события). Результат каждого данного испытания не зависит от результатов предыдущих испытаний. Вероятность наступления интересующего нас события не меняется от испытания к испытанию.

№ слайда 24 Теорема ( вывод формулы Бернулли): Если вероятность наступления события А в кажд
Описание слайда:

Теорема ( вывод формулы Бернулли): Если вероятность наступления события А в каждом испытании равна р , то вероятность того, что событие А в n испытаниях наступит к раз, вычисляется по формуле:

№ слайда 25 Число успехов К0 (реализаций события А), вероятность наступления которого наибол
Описание слайда:

Число успехов К0 (реализаций события А), вероятность наступления которого наибольшая по сравнению с вероятностью наступления успехов любое другое количество раз, назовем наивероятнейшим числом успехов. Поэтому на практике чаще всего реализуется именно такое число успехов (реализаций события А). Теорема: Наивероятнейшее число наступлений события А в n испытаниях заключено между числами : Заметит, что разность между (n·p – q) и (n·p + p) равна 1. Число К0 ≈ n·p. Иногда бывает, что К0 (1) = (n·p – q) – целое число, тогда и К0 (2) = (n·p + р) – целое число. В этом случае имеются два наивероятнейших числа, для которых вероятности принимают самые большие и одинаковые значения: Р (К0 (1) ) = Р (К0 (2) ) .

№ слайда 26 §10. Случайная величина (СВ) и закон ее распределения (з.р.). Случайная величина
Описание слайда:

§10. Случайная величина (СВ) и закон ее распределения (з.р.). Случайная величина обозначается заглавной буквой Х (если случайных величин несколько, то вводят У, Z и т.д.); значение, которое принимает случайная величина, обозначается малой буквой х. Пишут Х = х. Это запись означает, что случайная величина приняла некоторое конкретное значение. Случайной величиной называется числовая функция ,заданная на пространстве элементарных исходов случайного эксперимента (т.е. для каждого значения задается определенное значение Х). Следует отметить, что и вероятность является числовой функцией, заданной на пространстве элементарных исходов случайного эксперимента, т.е.

№ слайда 27 Существует два типа случайных величин – дискретные и непрерывные. Закон распреде
Описание слайда:

Существует два типа случайных величин – дискретные и непрерывные. Закон распределения случайной величины – это правило, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. Введем универсальный з.р., который подходит как для описания поведения дискретной СВ, так и для описания поведения непрерывной СВ. Функцией распределения случайной величины называют Доказаны свойства функции распределения.

№ слайда 28 Пример графика функции распределения для дискретной случайной величины Х – числа
Описание слайда:

Пример графика функции распределения для дискретной случайной величины Х – числа выпадений герба при трехкратном бросании правильной монеты.

№ слайда 29 Если случайная величина такова, что ее функция распределения может быть представ
Описание слайда:

Если случайная величина такова, что ее функция распределения может быть представлена в виде: (здесь t – переменная интегрирования), то мы назовем ее непрерывной случайной величиной. График функции распределения для непрерывной СВ может выглядеть, например, следующим образом: F(x) 1 0 x

№ слайда 30 Функцию f(x) используют для описания поведения непрерывных случайных величин, иб
Описание слайда:

Функцию f(x) используют для описания поведения непрерывных случайных величин, ибо она полностью содержит всю информацию, которая нужна для анализа поведения непрерывных случайных величин. Вероятность попадания непрерывной случайной величины в заданный числовой промежуток определяется формулой: Доказаны свойства плотности вероятности.

№ слайда 31 §11. Числовые характеристики случайной величины - математическое ожидание, диспе
Описание слайда:

§11. Числовые характеристики случайной величины - математическое ожидание, дисперсия, стандартное отклонение; их свойства. Рассмотрим дискретную случайную величину, принимающую некоторые значения на числовой оси: Определение: Математическим ожиданием дискретной случайной величины (ДСВ) называется

№ слайда 32 Для случая n ряд должен быть сходящимся. Возникают иногда ситуации, когда ряд ра
Описание слайда:

Для случая n ряд должен быть сходящимся. Возникают иногда ситуации, когда ряд расходится. Тогда случайная величина не имеет математического ожидания. Такие случай мы рассматривать не будем. Статистический смысл математического ожидания: Вычисляя среднее арифметическое всех наблюдаемых значений СВ, получают математическое ожидание СВ в практических задачах.

№ слайда 33 Определение: Математическим ожиданием непрерывной случайной величины (НСВ) назыв
Описание слайда:

Определение: Математическим ожиданием непрерывной случайной величины (НСВ) называется : Математическое ожидание уже не является случайной величиной. Это постоянная величина для данного закона распределения СВ. Она является обобщенной характеристикой данного распределения, указывая то значение, около которого располагаются все возможные значения, принимаемые данной случайной величины. Рассмотрены свойства математического ожидания.

№ слайда 34 Математическое ожидание характеризует центр распределения случайной величины и н
Описание слайда:

Математическое ожидание характеризует центр распределения случайной величины и не дает представление о разбросе возможных значений случайной величины, хотя значения случайной величины могут сильно или же не сильно отклоняться от своего теоретического центра (математического ожидания). Мера разброса возможных значений случайной величины является важной характеристикой поведения случайной величины. Определение: Дисперсией случайной величины называется математическое ожидание квадрата отклонения случайной величины от ее теоретического центра:

№ слайда 35 Формула, удобная для вычислений дисперсии: Определение: Стандартным отклонением
Описание слайда:

Формула, удобная для вычислений дисперсии: Определение: Стандартным отклонением случайной величины называется Дисперсию можно записать символом как символом DX, так и символом 2. Стандартное отклонение имеет ту же размерность, что и сама случайная величина. Рассмотрены свойства дисперсии и стандартного отклонения.

№ слайда 36 Статистический смысл дисперсии: Вычислили среднее арифметическое на основе данны
Описание слайда:

Статистический смысл дисперсии: Вычислили среднее арифметическое на основе данных наблюдений. Далее найдем среднее арифметическое квадратов отклонений от среднего арифметического: Именно эта формула применяется для практического вычисления дисперсии на основе результатов наблюдений (в действительности знаменатель формулы несколько меняют – вместо n используют (n-1)).

№ слайда 37 Вычислены математическое ожидание, дисперсия и стандартное отклонение для СВ, ра
Описание слайда:

Вычислены математическое ожидание, дисперсия и стандартное отклонение для СВ, распределенной по закону Бернулли (биномиальному закону): В отечественной литературе часто используется другое название для стандартного отклонения - среднее квадратическое отклонение. В коммерческой деятельности стандартное отклонение характеризует риск, показывая, насколько неопределённой является ситуация. Математическое ожидание и стандартное отклонение выражают в сжатой форме наиболее характерные черты закона распределения случайной величины, а именно, его теоретический центр и меру отклонения от этого теоретического центра. Эти величины для данного распределения являются константами (неслучайными величинами).

№ слайда 38 Используются и некоторые другие константы распределения, позволяющие выявить осо
Описание слайда:

Используются и некоторые другие константы распределения, позволяющие выявить особенности данного конкретного распределения. Введем некоторые них. Определения: Квантилем уровня р (или р - квантилем) называется такое значение хр случайной величины, которое является решением уравнения , т.е. при котором функция распределения принимает значение, равное р. Модой MоX СВ X называется её наиболее вероятное значение, т.е. это такое значение СВ, для которого вероятность для дискретной СВ или плотность вероятности для непрерывной СВ достигает своего максимума. Медианой МеХ случайной величины называют такое её значение, для которого Медиана – это квантиль уровня 0.5.

№ слайда 39 § 12. Наиболее часто используемые законы распределения случайных величин. Дискре
Описание слайда:

§ 12. Наиболее часто используемые законы распределения случайных величин. Дискретные случайные величины: Для ДСВ наиболее часто используется биномиальный закон распределения. Кроме биномиального закона распределения наиболее часто используется распределение Пуассона, которое является следствием (предельным случаем) распределения Бернулли. Оно получено предельным переходом из биномиального закона при выполнении определенных ограничений: n – велико; p – мало; = const = 0(1). Формула Пуассона:

№ слайда 40 Параметр называют интенсивностью потока событий. Формула Пуассона имеет и самост
Описание слайда:

Параметр называют интенсивностью потока событий. Формула Пуассона имеет и самостоятельное значение, когда в задаче рассматривается поток событий, имеющий заданную интенсивность. Для распределения Пуассона EX= , DX= . Если нас интересует наступление определенного числа событий А не за единицу времени, а за другой промежуток времени t, отличный от единицы, то формула Пуассона приобретает такой вид:

№ слайда 41 Интегральная теорема Муавра – Лапласа: Если вероятность p наступления события А
Описание слайда:

Интегральная теорема Муавра – Лапласа: Если вероятность p наступления события А в каждом испытании постоянна (0

№ слайда 42 Непрерывные случайные величины: СВ Х имеет равномерный закон распределения на от
Описание слайда:

Непрерывные случайные величины: СВ Х имеет равномерный закон распределения на отрезке [a, b], если ее плотность распределения постоянна на этом отрезке и равна нулю вне его:

№ слайда 43 Непрерывная СВ Х имеет показательный (экспоненциальный) закон распределения с па
Описание слайда:

Непрерывная СВ Х имеет показательный (экспоненциальный) закон распределения с параметром , если ее плотность распределения имеет вид: В показательном законе смысл параметра тот же самый, что и в законе Пуассона – среднее количество событий за единицу времени.

№ слайда 44 Между законами распределения Пуассона и показательным существует тесная связь: К
Описание слайда:

Между законами распределения Пуассона и показательным существует тесная связь: Количество событий за любой фиксированный промежуток времени имеет распределение Пуассона, а время ожидания между событиями - показательное распределение. Поток событий, для описания которого справедливы упомянутые распределения, должен быть подчинен определенным ограничениям для того, чтобы его поведение можно было описать такими простыми формулами. Эти ограничения потока событий таковы: Стационарность (интенсивность потока событий не зависит от времени); Отсутствие последействия (количество событий, попадающих на данный промежуток времени, не зависит от числа событий, попадающих на другой промежуток времени, не пересекающийся с данным); Ординарность (вероятность попадания на малый промежуток времени двух или более событий пренебрежимо мала по сравнению с вероятностью попадания на этот же малый промежуток времени одного события).

№ слайда 45 Поток событий называется простейшим (или стационарным пуассоновским), если он од
Описание слайда:

Поток событий называется простейшим (или стационарным пуассоновским), если он одновременно обладает свойствами 1, 2, 3. Эта модель потока событий обладает свойством, которое называется характеристическим свойством или свойством «отсутствия памяти». СВ Х имеет нормальный закон распределения с параметрами m и , если ее плотность распределения имеет вид: Обозначение: X ~ N(m; ) Параметры m и имеют определенный смысл. Для выяснения этого смысла следует вычислить математическое ожидание и стандартное отклонение нормально распределенной СВ. Оказывается, что они совпадают с этими параметрами.

№ слайда 46 График плотности нормального распределения имеет вид: 1 Площадь под кривой сохра
Описание слайда:

График плотности нормального распределения имеет вид: 1 Площадь под кривой сохраняет постоянное значение, равное единице, при любых изменениях . Чем больше значение , тем более плавно идет кривая плотности.

№ слайда 47 Стандартным нормальным распределением называется распределение нормальной случай
Описание слайда:

Стандартным нормальным распределением называется распределение нормальной случайной величины с m=0 и =1. Обозначение: Z ~ N(0;1). Плотность распределения стандартной нормальной СВ имеет вид:

№ слайда 48 Формула для вычисления вероятности попадания нормально распределенной СВ в задан
Описание слайда:

Формула для вычисления вероятности попадания нормально распределенной СВ в заданный интервал: Справедлива формула: На основе этой формулы может быть получено «правило трех сигм»: Если случайная величина распределена нормально, то ее отклонение от математического ожидания практически не превосходит утроенного стандартного отклонения.

№ слайда 49 §13. Устойчивость некоторых законов распределения. Если СВ нормально распределен
Описание слайда:

§13. Устойчивость некоторых законов распределения. Если СВ нормально распределена: X ~ N(m; ), то СВ Y=aX+b также подчиняется нормальному закону распределения, причем: Закон распределения называется устойчивым, если СВ, равная сумме двух независимых СВ, имеет тот же закон распределения, что и законы распределения суммируемых СВ. Показано, что если случайная величина Z находится как сумма двух независимых нормально распределенных случайных величин X и Y, то Z также будет нормально распределена, причем

№ слайда 50 §14. Неравенство Чебышева. Неравенство Маркова (или лемма Чебышева) Если случайн
Описание слайда:

§14. Неравенство Чебышева. Неравенство Маркова (или лемма Чебышева) Если случайная величина Х принимает только неотрицательные значения и имеет математическое ожидание ЕХ, то для любого положительного числа справедливо неравенство: Предельные теоремы теории вероятностей. Теорема (неравенство Чебышева): Если случайная величина Х имеет математическое ожидание ЕХ и дисперсию DX, то для любого > 0 справедливо неравенство:

№ слайда 51 §15.Теорема Чебышева. Закон больших чисел (ЗБЧ). Введем понятие сходимости по ве
Описание слайда:

§15.Теорема Чебышева. Закон больших чисел (ЗБЧ). Введем понятие сходимости по вероятности:

№ слайда 52 Формулировка ЗБЧ в форме Чебышева П.Л. (теорема Чебышева): Если дисперсии n неза
Описание слайда:

Формулировка ЗБЧ в форме Чебышева П.Л. (теорема Чебышева): Если дисперсии n независимых случайных величин Х1 , Х2,…, Хn ограничены сверху одной и той же константой: DXi ≤ C, i=1, 2,…, n, то для любого сколь угодно малого положительного числа

№ слайда 53 Следствия из теоремы Чебышева: Первое следствие: Теорема Хинчина Если независимы
Описание слайда:

Следствия из теоремы Чебышева: Первое следствие: Теорема Хинчина Если независимые случайные величины Х1 , Х2,…, Хn имеют одинаковые математические ожидания, равные m, то Это соотношение является основой выборочного метода (статистических исследований). Если мы хотим узнать истинное значение какого-то параметра m, нам нужно несколько раз экспериментально получить значения Xi этого параметра и затем на основе этих значений вычислить их среднее арифметическое. Вычисленная величина будет достаточно хорошим приближением истинного значения параметра, причем чем больше включено в расчет экспериментальных значений, тем более точное приближение истинного значения параметра будет получено.

№ слайда 54 Второе следствие: Теорема Бернулли Пусть проводится n независимых испытаний, в к
Описание слайда:

Второе следствие: Теорема Бернулли Пусть проводится n независимых испытаний, в каждом из которых событие А может произойти с одной и той же вероятностью р (схема Бернулли). При неограниченном возрастании числа опытов n частота события А сходится по вероятности к вероятности р этого события в отдельном испытании: Здесь k - количество случаев, когда событие А наблюдалось.

№ слайда 55 Третье следствие: ЗБЧ может быть распространен и на зависимые случайные величины
Описание слайда:

Третье следствие: ЗБЧ может быть распространен и на зависимые случайные величины ( это обобщение принадлежит Маркову А.А.): Если имеются зависимые случайные величины Х1 , Х2,…, Хn и если при

№ слайда 56 §16. Смысл и формулировка центральной предельной теоремы (ЦПТ). Интегральная тео
Описание слайда:

§16. Смысл и формулировка центральной предельной теоремы (ЦПТ). Интегральная теорема Муавра-Лапласа как следствие ЦПТ. Эта теорема утверждает, что распределение суммы большого числа независимых и сравнимых по вкладам в сумму случайных величин близко к нормальному закону распределения. Иначе: если Yn = X1 +X2 +…+Xn , причем Слагаемых много; Слагаемые независимые; Слагаемые сравнимы по вкладам в сумму, т.е. нет слагаемого, которое было бы по вкладу существенно больше остальных, то ЦПТ утверждает, что СВ Yn подчиняется нормальному закону распределения. Именно поэтому нормальный закон распределения так широко применяется в практических задачах, ибо в реальных задачах исследуемые случайные величины часто есть результат сложения многих других случайных величин.

№ слайда 57 Упрощенная математическая формулировка ЦПТ: Если X1 , X2 ,…, Xn – независимые сл
Описание слайда:

Упрощенная математическая формулировка ЦПТ: Если X1 , X2 ,…, Xn – независимые случайные величины, для каждой из которых существует математическое ожидание EXi = mi и дисперсия DXi= i 2 , а также выполняется некоторое дополнительное условие , то закон распределения Yn = X1 +X2 +…+Xn при n асимптотически приближается к нормальному закону распределения с параметрами Что касается упомянутого в формулировке теоремы дополнительного условия, то оно сложно записывается математически, но означает, что вклад каждого слагаемого в сумму ничтожно мал, т.е. слагаемые соразмерны по своим вкладам в сумму. Из ЦПТ для схемы испытаний Бернулли вытекает как следствие интегральная теорема Муавра – Лапласа.

№ слайда 58 §17. Многомерная случайная величина и закон ее распределения. Пусть имеется сист
Описание слайда:

§17. Многомерная случайная величина и закон ее распределения. Пусть имеется система случайных величин (СВ), причем эта система может состоять как из дискретных, так и из непрерывных СВ. Будем рассматривать их как координаты случайного вектора. Определение. n-мерной случайной величиной или случайным вектором называется упорядоченный набор n случайных величин Для описания поведения многомерной СВ должен быть введен закон ее распределения:

№ слайда 59 Эта функция выражает вероятность совместного выполнения неравенств в правой част
Описание слайда:

Эта функция выражает вероятность совместного выполнения неравенств в правой части этого соотношения. С целью экономии времени изложение выполним для двумерного случая; при этом будем понимать, что все утверждения справедливы и для n>2: Рассмотрены свойства функции F(x,y). Могут быть получены частные (маргинальные) функции распределения на основе функции совместного распределения двух случайных величин:

№ слайда 60 Для двумерной непрерывной случайной величины (X,Y) функция совместного распредел
Описание слайда:

Для двумерной непрерывной случайной величины (X,Y) функция совместного распределения может быть представлена в виде: Для функции f(x,y), которая называется плотностью совместного распределения, справедливы те же свойства, которые были получены для функции f(x) в одномерном случае. Зная плотность совместного распределения двух случайных величин, можно найти плотность частного (маргинального) распределения одной случайной величины:

№ слайда 61 Для независимых случайных величин Х и Y независимы события {X
Описание слайда:

Для независимых случайных величин Х и Y независимы события {X

№ слайда 62 §18. Стохастическая зависимость двух случайных величин. Ковариация и коэффициент
Описание слайда:

§18. Стохастическая зависимость двух случайных величин. Ковариация и коэффициент корреляции. Если случайные величины зависимы, влияют на поведение друг друга, то следует количественно описать степень их влияния друг на друга. Определение. Ковариацией двух СВ X и Y называется математическое ожидание произведения соответствующих центрированных СВ: cov (X, Y) = E((X – EX) · (Y – EY)) =

№ слайда 63 Рассмотрены свойства ковариации. Вывод: ковариация не улавливает сложные виды св
Описание слайда:

Рассмотрены свойства ковариации. Вывод: ковариация не улавливает сложные виды связей между X и Y. Ковариация отслеживает наличие только линейной связи между СВ. При наличии такой линейной связи (стохастической) ковариация отлична от 0. Определение: Коэффициентом корреляции двух СВ X и Y называется отношение их ковариации к произведению стандартных отклонений этих величин: Рассмотрены свойства коэффициента корреляции. Значения, принимаемые коэффициентом корреляции:

№ слайда 64 Определение. Случайные величины называются некоррелированными, если их коэффицие
Описание слайда:

Определение. Случайные величины называются некоррелированными, если их коэффициент корреляции равен нулю. Случайные величины называются коррелированными, если их коэффициент корреляции отличен от нуля. Было показано, что если случайные величины независимые, то они некоррелированные, а из некоррелированности случайных величин еще не следует их независимость. Из некоррелированности нормальных СВ следует их независимость (в общем случае это не так.) Коэффициент корреляции характеризует степень линейной зависимости между случайными величинами X и Y в стохастическом смысле и не может отражать более сложных видов зависимостей между случайными величинами. Графически показана стохастическая линейная связь между случайными величинами при различных значениях коэффициента корреляции. Введено уравнение линейной регрессии, наилучшим образом описывающим связь между случайными величинами:

№ слайда 65 Для вычисления коэффициента корреляции между двумя количественными признаками на
Описание слайда:

Для вычисления коэффициента корреляции между двумя количественными признаками на практике используется линейный коэффициент корреляции Пирсона:

№ слайда 66 Введем коэффициент корреляции для изучения тесноты связи между порядковыми случа
Описание слайда:

Введем коэффициент корреляции для изучения тесноты связи между порядковыми случайными величинами. Если n объектов совокупности пронумеровать в соответствии с возрастанием или убыванием изучаемого признака, то говорят, что объекты ранжированы по этому признаку. Присвоенный номер называется рангом. Коэффициент ранговой корреляции Спирмена вычисляется по формуле:

№ слайда 67 В случае совпадения рангов при вычислении коэффициента ранговой корреляции следу
Описание слайда:

В случае совпадения рангов при вычислении коэффициента ранговой корреляции следует брать среднее арифметическое рангов, приходящихся на данные объекты, причем каждому объекту присваивается это среднее арифметическое значение. В формулу вводятся поправки на совпадающие ранги Ta и Tb . Формула приобретает такой вид:

№ слайда 68 Раздел 2. Элементы математической статистики. Начнем с нового раздела нумерацию
Описание слайда:

Раздел 2. Элементы математической статистики. Начнем с нового раздела нумерацию параграфов заново. § 1. Случайные выборки. Первичная обработка статистических данных. Вариационные ряды. Статистика изучает большие массивы информации и устанавливает закономерности, которым подчиняются случайные массовые явления.

№ слайда 69 Генеральной совокупностью (ГС) называется вся подлежащая изучению какого-либо св
Описание слайда:

Генеральной совокупностью (ГС) называется вся подлежащая изучению какого-либо свойства (говорят, признака) совокупность объектов. Та часть объектов, которая отобрана для непосредственного изучения какого-либо признака ГС носит название случайной выборки (или просто выборки). Объем ГС и объем выборки – это количество элементов в них. Обозначаются , соответственно, N и n. В дальнейшем будем считать, что объем выборки существенно меньше объема генеральной совокупности. В этом случае получаемые в дальнейшем формулы являются наиболее простыми. Непрерывная природа изучаемого признака порождает бесконечные ГС.

№ слайда 70 Для того, чтобы выборка была репрезентативной (хорошо представлять элементы ГС),
Описание слайда:

Для того, чтобы выборка была репрезентативной (хорошо представлять элементы ГС), она должна быть отобрана случайно. Случайность отбора элементов в выборку достигается соблюдением принципа равной возможности каждого элемента ГС быть отобранным в выборку. Нарушение принципов случайного выбора приводит к серьезным ошибкам. Любое число, полученное на основе выборки, носит название «выборочная статистика» (или просто «статистика»). Пусть получена выборка объема n. Над этим массивом исходных данных выполняется операция ранжирования, т.е. экспериментальные данные выстраиваются в порядке возрастания:

№ слайда 71
Описание слайда:

№ слайда 72 Определение. Вариационным рядом называется ранжированный в порядке возрастания р
Описание слайда:

Определение. Вариационным рядом называется ранжированный в порядке возрастания ряд значений (вариантов) с соответствующими им частотами. Данный вариационный ряд носит название дискретного вариационного ряда (его члены принимают отдельные изолированные значения).

№ слайда 73 Построение дискретного вариационного ряда нецелесообразно, когда число значений
Описание слайда:

Построение дискретного вариационного ряда нецелесообразно, когда число значений в выборке велико или признак имеет непрерывную природу, т.е. может принимать любые значения в пределах некоторого интервала. В этом случае строят интервальный вариационный ряд. Вид интервального ряда:

№ слайда 74 В том случае, когда можно предположить, что изучаемый признак в ГС подчиняются н
Описание слайда:

В том случае, когда можно предположить, что изучаемый признак в ГС подчиняются нормальному з.р., для вычисления количества интервалов равной длины применяют формулу Стерджесса:

№ слайда 75 Существуют различные приёмы изображения набора данных, которые дают визуальное п
Описание слайда:

Существуют различные приёмы изображения набора данных, которые дают визуальное представление об основных свойствах экспериментальных данных в целом. Чаще всего для этого используются: полигон, гистограмма, кумулята. Графическое представление вариационных рядов делает картину поведения статистических данных более наглядной. Полигон распределения частот используется для изображения дискретного вариационного ряда и представляет собой ломаную линию, отрезки которой соединяют точки с координатами (xi ,wi).

№ слайда 76 Гистограмма используется для изображения интервальных вариационных рядов и предс
Описание слайда:

Гистограмма используется для изображения интервальных вариационных рядов и представляет собой ступенчатую фигуру из прямоугольников с основаниями, равными интервалам значений признака li (li = xi+1 - xi ) и высотами, равными wi/li .

№ слайда 77 Эмпирической функцией распределения Fn(x) называется относительная частота того,
Описание слайда:

Эмпирической функцией распределения Fn(x) называется относительная частота того, что случайная величина принимает значение меньше заданного: Fn(x) = W(X

№ слайда 78 Следует дополнить вариационные ряды и их графическое изображение некоторыми свод
Описание слайда:

Следует дополнить вариационные ряды и их графическое изображение некоторыми сводными характеристиками вариационных рядов. Эти обобщающие показатели в компактном виде характеризуют всю выборку (вариационный ряд) в целом. К таким обобщающим показателям относят: Характеристики центральной тенденции - это средние величины, определяющие значения признака, вокруг которого концентрируются все его наблюдаемые значения; Характеристики вариации (изменчивости) – это величины, определяющие колебания наблюдаемых значений признака. В качестве основной характеристики центральной тенденции чаще всего используют среднее арифметическое, вычисленной на основе выборки. Помимо этой величины используют моду и медиану.

№ слайда 79 Определение: Медиана – это значение признака, приходящееся на середину ранжирова
Описание слайда:

Определение: Медиана – это значение признака, приходящееся на середину ранжированного ряда наблюдений. Иначе: это то значение варианта, которое делит вариационный ряд на две равные по объему части. Обозначение: Теоретическое MeX; Статистическое Если число вариант нечетное, т.е. n=2m+1 , то Если число вариант четное, т.е. n=2m , то

№ слайда 80 Определение: Модой называется значение признака, наиболее часто встречающееся в
Описание слайда:

Определение: Модой называется значение признака, наиболее часто встречающееся в выборке. Иначе: Мода - то значение варианта, которому соответствует наибольшая частота. Обозначение: Теоретическое MоX; Статистическое Нам важно знать не только средние значения вариантов, но и отличие значений вариантов от среднего значения. Для отражения изменчивости (вариации) значений признака вводят различные показатели вариации ряда. Простейшим и весьма приближенным показателем вариации является размах выборки R = xmax - xmin .

№ слайда 81 Определение. Выборочной дисперсией вариационного ряда называется среднее арифмет
Описание слайда:

Определение. Выборочной дисперсией вариационного ряда называется среднее арифметическое квадратов отклонений вариантов от их среднего арифметического: При вычислении выборочной (или эмпирической) дисперсии формулу несколько меняют. Из некоторых соображений, которые пока для нас с вами скрыты, в знаменателе этой формулы ставят не n, а n-1, и возникает другая формула для вычисления дисперсии, которую запишем ниже; величину, вычисленную по этой формуле называют «исправленная выборочная дисперсия».

№ слайда 82 Будем всегда выборочную дисперсию вычислять по второй формулу, называя ее просто
Описание слайда:

Будем всегда выборочную дисперсию вычислять по второй формулу, называя ее просто «выборочная дисперсия». Ясно, что при большом объеме выборки разница между двумя приведенными формулами стирается. Для меры вариации, выраженной в тех же единицах измерения, что и значение признака, вычисляют выборочное стандартное отклонение: Для сравнения вариаций разных по природе переменных используется относительный показатель вариации: Эта величина характеризует, насколько сильно элементы в выборке и, следовательно, в ГС отличаются друг от друга.

№ слайда 83 § 2. Точечные оценки параметров генеральной совокупности. Поставим задачу в обще
Описание слайда:

§ 2. Точечные оценки параметров генеральной совокупности. Поставим задачу в общем виде – задачу отыскания хороших (доброкачественных) приближений параметров известных распределений на основе выборки из ГС. Пусть x1, x2, …, xn - выборка объема n из ГС. Будем рассматривать эту выборку как систему СВ X1, X2, …, Xn , которая в данном конкретном исследовании приняла именно этот набор числовых значений x1, x2, …, xn . Определение: Точечной оценкой неизвестного параметра теоретического закона распределения называют всякую функцию результатов наблюдений над СВ X, значение которой принимают в качестве приближённых значений параметра :

№ слайда 84 Требования, предъявляемые к точечным оценкам (Иногда говорят : свойства точечных
Описание слайда:

Требования, предъявляемые к точечным оценкам (Иногда говорят : свойства точечных оценок): Несмещённость. Оценка параметра называется несмещённой, если её математическое ожидание равно оцениваемому параметру: 2. Эффективность. Оценка параметра называется эффективной, если она имеет наименьшую дисперсию среди всех оценок параметра по выборкам одного и того же объема:

№ слайда 85 3. Состоятельность. Оценка параметра называется состоятельной, если она удовлетв
Описание слайда:

3. Состоятельность. Оценка параметра называется состоятельной, если она удовлетворяет ЗБЧ: В последнее время стали добавлять еще одно требование к оценкам. 4. Устойчивость. Смысл этого свойства в том, что при небольших флуктуациях в исходной информации значение оценки не должно существенным образом меняться. На практике не всегда удается удовлетворить всем требованиям одновременно. Может оказаться, что для простоты расчетов целесообразно использовать незначительно смещенные оценки или же оценки, обладающие несколько большей дисперсией по сравнению с эффективными оценками.

№ слайда 86 Показано, что среднее арифметическое, вычисленное на основе выборки и являющееся
Описание слайда:

Показано, что среднее арифметическое, вычисленное на основе выборки и являющееся точечной оценкой генерального среднего (истинного значения параметра), обладает свойствами 1-4, присущими хорошей оценке. Показано также, что выборочная доля w=k/n (иначе: относительная частота появления признака в выборке) является несмещенной и состоятельной оценкой генеральной доли WГ=K/N. Заметим, что выборочную долю можно трактовать как оценку вероятности в биномиальном законе распределения. Показано, что выборочная дисперсия, вычисляемая по формуле , дает несмещенную оценку генеральной дисперсии.

№ слайда 87 Аналогично, несмещенной точечной оценкой ковариации cov(X,Y) является такая оцен
Описание слайда:

Аналогично, несмещенной точечной оценкой ковариации cov(X,Y) является такая оценка: В формулах для S2 и KXY возникает новый параметр k=n-1 Он носит название «число степеней свободы».Это разность между числом используемых в расчетах отклонений и количеством связей между этими отклонениями.

№ слайда 88 § 3. Методы получения точечных оценок параметров генеральной совокупности. Основ
Описание слайда:

§ 3. Методы получения точечных оценок параметров генеральной совокупности. Основное внимание уделим методу, который наиболее часто применяется для этой цели. 1. Метод наибольшего (максимального) правдоподобия. это основной метод получения оценок параметров ГС на основе выборки. Метод был предложен американским статистиком Р. Фишером. Пусть задан известный закон распределения. Ставится задача найти оценку его неизвестного параметра или параметров, если в законе распределения их несколько.

№ слайда 89 Функцией правдоподобия дискретной СВ Х называют функцию аргумента (искомого пара
Описание слайда:

Функцией правдоподобия дискретной СВ Х называют функцию аргумента (искомого параметра) В качестве точечной оценки параметра принимают такое его значение , при котором функция правдоподобия достигает максимума. Оценку называют оценкой наибольшего правдоподобия. Суть подхода заключается в том, чтобы выбрать такое значение оценки параметра, которое обеспечивает наиболее вероятное появление именно данной выборки. Удобнее рассматривать не саму функцию L, а lnL.

№ слайда 90 Методом наибольшего правдоподобия найдена оценка параметра в законе распределени
Описание слайда:

Методом наибольшего правдоподобия найдена оценка параметра в законе распределения Пуассона Методом наибольшего правдоподобия найдена оценка вероятности успеха в единичном испытании на основе единственной серии испытаний. Методом наибольшего правдоподобия найдена оценка вероятности успеха в единичном испытании на основе нескольких серий испытаний (биномиальный закон распределения).

№ слайда 91 Функцией правдоподобия непрерывной СВ Х называют функцию аргумента (искомого пар
Описание слайда:

Функцией правдоподобия непрерывной СВ Х называют функцию аргумента (искомого параметра) Здесь x1, x2, …, xn - фиксированные числа. Методом наибольшего правдоподобия найдена оценка параметра показательного з.р. Методом наибольшего правдоподобия найти оценки параметров m и нормального з.р.

№ слайда 92 По поводу метода наибольшего правдоподобия сделаем выводы: 1. Метод наибольшего
Описание слайда:

По поводу метода наибольшего правдоподобия сделаем выводы: 1. Метод наибольшего правдоподобия дает естественные оценки, не противоречащие здравому смыслу. Усилиями математиков было показано, что в целом эти оценки обладают хорошими свойствам. А именно, они являются состоятельными, эффективными, но иногда слабо смещенными. 2. Метод наибольшего правдоподобия имеет два недостатка: 1) иногда сложно решить уравнение или систему уравнений правдоподобия, которые часто бывают нелинейными. 2) существенное ограничение метода – необходимо точно знать вид закона распределения, что во многих случаях оказывается невозможным. Существует и другие методы нахождения точечных оценок параметров ГС. Это – Метод моментов и Метод наименьших квадратов. Суть его заключается в том, что оценка определяется из условия минимизации квадратов отклонений выборочных данных от определяемой оценки.

№ слайда 93 Следует ввести дополнительные распределения и новые таблицы, созданные на основе
Описание слайда:

Следует ввести дополнительные распределения и новые таблицы, созданные на основе этих распределений. § 4. Распределения, связанные с нормальным законом распределения. Распределение - квадрат ( 2 ). ( или распределение Пирсона) Определение: Пусть СВ X1, X2, …, Xk независимые и каждая из них имеет стандартное нормальное распределение (Xi N(0;1), i=1, 2,…, n ), тогда случайная величина 2 (k) = X12+ X2 2 + …+Xk 2 имеет распределение хи-квадрат с k степенями свободы. Значения этого распределения затабулированы.

№ слайда 94 2. t -распределение (или распределение Стьюдента) Определение: Пусть СВ Y, X1, X
Описание слайда:

2. t -распределение (или распределение Стьюдента) Определение: Пусть СВ Y, X1, X2, …, Xk независимые и каждая из них имеет стандартное нормальное распределение (Y, Xi N(0;1), i=1, 2,…, k), тогда случайная величина имеет распределение Стьюдента c k степенями свободы. Значения распределения затабулированы.

№ слайда 95 § 5. Интервальные оценки параметров генеральной совокупности. Наша задача - науч
Описание слайда:

§ 5. Интервальные оценки параметров генеральной совокупности. Наша задача - научиться отыскивать границы интервала, который накроет истинное значение искомого параметра. Для этого будем использовать метод интервального оценивания, который разработал американский статистик Нейман, исходя из идей статистика Фишера. Этот интервал должен накрывать истинное значение параметра с большой вероятностью = 1- , где - велико, а - мало; называется доверительной вероятностью (а также: надежностью, уровнем доверия), называется уровнем значимости. Интервал, который мы будем находить, носит название доверительного интервала (иначе: интервальная оценка искомого параметра ГС).

№ слайда 96 Ставится задача отыскания такого значения , для которого выполнено: Величина наз
Описание слайда:

Ставится задача отыскания такого значения , для которого выполнено: Величина называется «точность оценки» (или: «предельная ошибка выборки»). Формулы, по которым определяются границы доверительного интервала, зависят от конкретного оцениваемого параметра ГС и конкретной ситуации, поэтому возникает необходимость рассмотреть несколько интересующих нас ситуаций.

№ слайда 97 Интервальная оценка математического ожидания (или: генерального среднего) нормал
Описание слайда:

Интервальная оценка математического ожидания (или: генерального среднего) нормально распределенной ГС, если известна дисперсия 2 для ГС. Пусть изучаемый признак Х в ГС имеет нормальное распределение с параметрами m и независимых СВ. В данной постановке задачи считаем, что 2 известна (например, взята из аналогичного предыдущего исследования). Здесь m – тот неизвестный параметр, для которого мы хотим построить интервальную оценку. Получено следующее выражение для доверительного интервала: (С помощью таблицы функции Ф0 находим по заданному значению tкр - квантиль стандартного нормального з.р. на основе уравнения Ф0(tкр )= /2).

№ слайда 98 2. Интервальная оценка математического ожидания нормально распределенной ГС, есл
Описание слайда:

2. Интервальная оценка математического ожидания нормально распределенной ГС, если дисперсия 2 для ГС неизвестна. Теперь вместо неизвестной дисперсии будем использовать ее точечную оценку – выборочную дисперсию (С помощью таблица «Критические точки распределения Стьюдента» по заданным значениям (двусторонняя критическая область) и k=n-1 находим tкр - квантиль распределения Стьюдента).

№ слайда 99 Замечание: При n≤30 (малые выборки) следует находить tкр на основе распределения
Описание слайда:

Замечание: При n≤30 (малые выборки) следует находить tкр на основе распределения Стьюдента; При n>30 (большие выборки) следует находить tкр на основе стандартного нормального распределения, т.е. на основе функции Лапласа.

№ слайда 100 Если задана точность оценки , то можно найти объем выборки, которая обеспечит эт
Описание слайда:

Если задана точность оценки , то можно найти объем выборки, которая обеспечит эту требуемую точность: 3. Интервальная оценка стандартного отклонения для нормально распределенной ГС. Пусть изучаемый признак Х в ГС имеет нормальное распределение: X~N(m, ), причем параметры распределения неизвестны. Для случая малых объемов выборки (n≤30):

№ слайда 101 Очевидно, что значения 2 кр1 и 2 кр2 определяются неоднозначно при одном и том ж
Описание слайда:

Очевидно, что значения 2 кр1 и 2 кр2 определяются неоднозначно при одном и том же значении заштрихованной площади, равной . Границы красных зон выбираем так, чтобы вероятности попадания в них были бы одинаковыми, равными /2 .

№ слайда 102 Для случая больших объемов выборки (n>30): 4. Интервальная оценка истинного знач
Описание слайда:

Для случая больших объемов выборки (n>30): 4. Интервальная оценка истинного значения вероятности биномиального закона распределения (генеральной доли). Рассмотрим два случая: А. Случай умеренно больших выборок ( n>30 до нескольких сотен, например, до 200). Далее в формуле tкр - квантиль стандартного нормального з.р. на основе уравнения Ф0(tкр )= /2.

№ слайда 103
Описание слайда:

№ слайда 104 Б. Случай больших выборок ( порядка сотен и более ; например, от 200 и более). Ф
Описание слайда:

Б. Случай больших выборок ( порядка сотен и более ; например, от 200 и более). Формулы для вычисления границ доверительного интервала существенно упрощаются при таких больших объемах выборок. При больших объемах выборок n возникает простая формула для , на основе которой при заданном можно вычислить соответствующее n:

№ слайда 105 В. Случай выборок малого объема (n≤30 ) В этом случае для вычисления Sw использу
Описание слайда:

В. Случай выборок малого объема (n≤30 ) В этом случае для вычисления Sw используется формула Доверительный интервал определяется по формуле предыдущего пункта; tкр находится по распределению Стьюдента по к=n-1. Замечание: В литературе часто приводят упрощенный способ вычисления доверительного интервала, рассматривая только большие и малые выборки. В этом случае выделяют два пункта при вычислении доверительного интервала: Большая выборка (n более 30) - вычисление ведут по пункту Б. 2) Малая выборка (n меньше или равно 30) – вычисление ведут по пункту В.

№ слайда 106 § 6. Понятие статистической гипотезы. Нулевая и конкурирующая гипотезы. Критерий
Описание слайда:

§ 6. Понятие статистической гипотезы. Нулевая и конкурирующая гипотезы. Критерий. Критические области и область принятия нулевой гипотезы. Гипотеза – утверждение, которое надо либо доказать, подтвердить, исходя из разумных предположений, либо опровергнуть. Статистической называют гипотезу о виде неизвестного распределения или о параметрах известного распределения. Нулевой (основной) называют выдвинутую гипотезу Н0. Конкурирующей (альтернативной) называют гипотезу Н1, которая противоречит нулевой. Статистическим критерием или просто критерием называют случайную величину К, которая служит для проверки нулевой гипотезы Н0. Областью принятия гипотезы (областью допустимых значений критерия) называют совокупность значений критерия, при которых нулевую гипотезу принимают.

№ слайда 107 Критической областью называют совокупность значений критерия, при которых нулеву
Описание слайда:

Критической областью называют совокупность значений критерия, при которых нулевую гипотезу отвергают. Это такие значения критерия, которые не характерны для данного распределения, т.е. возникающие с малой вероятностью. Основной принцип проверки статистической гипотезы можно сформулировать так: если наблюдаемое значение критерия принадлежит области принятия гипотезы, то принимают нулевую гипотезу; если наблюдаемое значение критерия принадлежит критической области, то нулевую гипотезу отвергают и принимают альтернативную гипотезу; Гипотеза называется параметрической, если речь идет об утверждении, связанном с каким-то конкретным параметром. В противном случае она называется непараметрической. Гипотеза называется простой, если речь идет о том, что неизвестный параметр принимает какое-то конкретное значение. Если речь идет о многих значениях параметра, то она называется сложной.

№ слайда 108 Процедура проверки простой параметрической гипотезы выглядит так: Формируют нуле
Описание слайда:

Процедура проверки простой параметрической гипотезы выглядит так: Формируют нулевую гипотезу Н0 и альтернативную гипотезу Н1 на основе выборочных данных. Конструируют, исходя из логики задачи, СВ на основе результатов выборки (критерий); распределение критерия в случае истинности гипотезы Н0 известно. Вся область возможных значений критерия разбивается на два подмножества. Одно подмножество – это совокупность естественных (правдоподобных), т.е. наиболее вероятных для данного распределения значений. В это подмножество критерий попадает с высокой вероятностью . Эту вероятность мы задаем сами. Она носит название «доверительная вероятность» (уровень доверия) ( = 0.90; 0.95; 0.99). Другое подмножество – это область редко возникающих для данного з.р. значений (неправдоподобных значений).

№ слайда 109 Вероятность попадания в эту область мала и равна =1- . носит название «уровень з
Описание слайда:

Вероятность попадания в эту область мала и равна =1- . носит название «уровень значимости»( =0.10;0.05;0.01). 4. Вычисляют значение критерия Кнабл на основе выборочных значений изучаемого признака. Если Кнабл попадает в область правдоподобных значений, то с вероятностью утверждают, что гипотеза Н0 не противоречит экспериментальным данным, а поэтому принимают основную гипотезу. Если значения Кнабл попадает в область неправдоподобных для данного з.р. значений, то отвергают гипотезу Н0 и принимают альтернативную гипотезу Н1 . Если при проверке гипотезы Н0 эта гипотеза принимается, то этот факт не означает, что высказанное нами утверждение является единственно верным. Просто оно не противоречит имеющимся выборочным данным. Возможно, что и другое утверждение также не будет противоречить выборочным данным.

№ слайда 110 6. Если наблюдаемое значение критерия Кнабл попадает в область неестественных зн
Описание слайда:

6. Если наблюдаемое значение критерия Кнабл попадает в область неестественных значений и мы, следовательно, отвергаем гипотезу Н0 и принимаем гипотезу Н1, то не можем ли мы при этом совершить ошибку - отвергнуть верную гипотезу Н0 и принять ложную гипотезу Н1? Да, можем, но вероятность этой ошибки мала; она равна величине . Типы альтернативных гипотез (для исходной простой параметрической гипотезы Н0 : = 0) Н1: ≠ 0 + =1

№ слайда 111 3. Н1: 0
Описание слайда:

3. Н1: 0

№ слайда 112 § 7. Проверка гипотезы о числовом значении математического ожидания m (генеральн
Описание слайда:

§ 7. Проверка гипотезы о числовом значении математического ожидания m (генеральной средней ) нормально распределенной ГС. Дисперсия ГС известна (или n>30) Считаем, что в ГC изучаемый признак Х распределен нормально, причем мат. ожидание неизвестно, но есть основание полагать, что оно равно какому-то определенному значению m0. В этом пункте считаем, что дисперсия 2 в ГС известна либо из предшествующего опыта, либо же вычислена на основе данного опыта, но по выборке большого объема (по большой выборке можно получить весьма хорошее приближение для истинной дисперсии в ГС на основе рассчитанной по выборке выборочной дисперсии). Поставим задачу следующим образом: Н0: m= m0 Н1: m≠ m0.

№ слайда 113 При конкурирующей гипотезе Н1: m≠ m0 следует вводить двустороннюю критическую об
Описание слайда:

При конкурирующей гипотезе Н1: m≠ m0 следует вводить двустороннюю критическую область. Из условия P(|t|< tкр )= =2Ф0(tкр) с помощь таблиц функции Лапласа находим значение tкр . Здесь введен критерий

№ слайда 114 Если окажется, что вычисленное на основе экспериментальных данных значение tнабл
Описание слайда:

Если окажется, что вычисленное на основе экспериментальных данных значение tнабл таково, что |tнабл|< tкр, то нет оснований отвергнуть гипотезу Н0; если |tнабл| tкр, то отвергаем нулевую гипотезу как противоречащую экспериментальным данным и принимаем альтернативную гипотезу Н1. При иной конкурирующей гипотезе, например, Н1: m> m0 следует формировать правостороннюю критическую область.

№ слайда 115 Если tнабл < tкр ,то принимается гипотеза Н0; если tнабл tкр, то отвергаем нулев
Описание слайда:

Если tнабл < tкр ,то принимается гипотеза Н0; если tнабл tкр, то отвергаем нулевую гипотезу и принимаем альтернативную гипотезу Н1.

№ слайда 116 2. Дисперсия ГС неизвестна Вычисляем выборочную дисперсию S2 для аппроксимации з
Описание слайда:

2. Дисперсия ГС неизвестна Вычисляем выборочную дисперсию S2 для аппроксимации значения генеральной дисперсии σ2 . Формулы полностью сохраняются, только вместо σ используем S и tкр определяем по таблице критических точек распределения Стьюдента для критической области по заданному уровню значимости и по числу степеней свободы k=n-1. Здесь вводится критерий

№ слайда 117 Связь между двусторонней критической областью и доверительным интервалом Отыскив
Описание слайда:

Связь между двусторонней критической областью и доверительным интервалом Отыскивая двустороннюю критическую область мы проделывали совершенно такие же преобразования как и при нахождении доверительного интервала для математического ожидания. Область принятия нулевой гипотезы и доверительный интервал совпадают. Можно сделать следующий вывод: Если предполагаемое в основной гипотезе числовое значение m0 неизвестного параметра попадает в доверительный интервал этого параметра, отвечающего заданному уровню доверия , то гипотезу Н0 принимаем, в противном случае ее отклоняем и принимаем альтернативную гипотезу Н1.

№ слайда 118 § 8. Проверка гипотезы о числовом значении вероятности p биномиального закона ра
Описание слайда:

§ 8. Проверка гипотезы о числовом значении вероятности p биномиального закона распределения (о числовом значении генеральной доли Wг) Требуется при заданном уровне доверия проверить нулевую гипотезу H0: p = p0 Альтернативная гипотеза может быть трех видов H1 : p ≠ p0 (p < p0 ; p > p0) Здесь мы будем рассматривать только случай умеренно больших (от 30 до нескольких сотен) и больших (более нескольких сотен) выборок, т.е. n>30. Используется критерий

№ слайда 119 § 9. Проверка гипотезы о равенстве математических ожиданий (генеральных средних)
Описание слайда:

§ 9. Проверка гипотезы о равенстве математических ожиданий (генеральных средних) двух нормально распределенных ГС. Пусть имеются две нормально распределенные ГС, причем в первой совокупности изучаемый признак X~N(m1; 1), во второй совокупности изучаемый признак Y~N(m2; 2). Предположим, что m1 и m2 неизвестны, а 1 и 2 известны (значения стандартных отклонений взяты либо из предшествующего опыта, либо при больших выборках получены на основе этих же выборок, поскольку хорошо аппроксимируют значения стандартных отклонений в ГС). Проверим гипотезу Н0: m1 = m2 Н1: : m1 ≠ m2 (m1 < m2 или m1 > m2 )

№ слайда 120 Подчеркнем: мы в данной формуле берем значения 1 и 2 либо из предыдущего опыта (
Описание слайда:

Подчеркнем: мы в данной формуле берем значения 1 и 2 либо из предыдущего опыта (и тогда нет ограничений на величины объемов выборок), либо получаем на основе выборок из данного опыта, но при этом полагаем, что выборки большие, т.е. n1>30, n2>30. Используется такой критерий: Далее в конкретных примерах в зависимости от конкурирующих гипотез выстраивают критические области, вычисляют наблюдаемое значение критерия и смотрят, попадает ли это значение в область правдоподобных значений критерия при справедливости нулевой гипотезы или же, напротив, в область неправдоподобных значений критерия. И в зависимости от этого принимают или же отвергают нулевую гипотезу, т.е. реализуют обычный алгоритм проверки гипотезы.

№ слайда 121 §10. Проверка гипотезы о равенстве вероятностей биномиального закона распределен
Описание слайда:

§10. Проверка гипотезы о равенстве вероятностей биномиального закона распределения (о равенстве долей признака) двух генеральных совокупностей. Рассмотрим две ГС. Из первой ГС делается случайная выборка объемом n1, и на основе этой выборки выясняется, сколько объектов выборки обладает изучаемым признаком – этих объектов k1. Из второй ГС делается случайная выборка объемом n2; количество объектов выборки, обладающих изучаемым признаком, - k2. Выборочные доли признака равны соответственно w1= k 1 / n1 ; w2= k 2 / n2. В данном пункте мы ограничимся лишь случаем, когда выборки достаточно большие : n1>30, n2>30.

№ слайда 122 Сформулируем задачу: Имеются две ГС, вероятности проявления признака (генеральны
Описание слайда:

Сформулируем задачу: Имеются две ГС, вероятности проявления признака (генеральные доли) в которых равны соответственно p1 и p2 . Необходимо проверить нулевую гипотезу о равенстве вероятностей (генеральных долей):

№ слайда 123 В качестве неизвестного значения вероятности р, входящего в выражение критерия t
Описание слайда:

В качестве неизвестного значения вероятности р, входящего в выражение критерия t, берут ее наилучшую оценку: tкр находится на основе функции Лапласа. В качестве критерия используется случайная величина:

№ слайда 124 §11. Проверка гипотезы о значимости выборочного коэффициента корреляции Пирсона.
Описание слайда:

§11. Проверка гипотезы о значимости выборочного коэффициента корреляции Пирсона. Рассматривается двумерная нормально распределенная генеральная совокупность (X,Y), т.е. случайные величины X и Y в ней распределены нормально. Из этой совокупности извлечена выборка объемом n пар (xi , yi) и по ней вычислен выборочный коэффициент корреляции Пирсона, который оказался отличным от нуля. На основе выборочных данных мы бы хотели получить обоснованный вывод о наличии связи между изучаемыми признаками во всей ГС.

№ слайда 125 Всегда проверяется нулевая гипотеза об отсутствии линейной корреляционной связи
Описание слайда:

Всегда проверяется нулевая гипотеза об отсутствии линейной корреляционной связи в ГС, а альтернатива заключается в предположении о том, что этот коэффициент в ГС отличен от нуля: H0: ρ=0 H1: ρ≠0 Если нулевая гипотеза отвергается, то это означает, что выборочный коэффициент корреляции значимо отличается от нуля, и, следовательно, в ГС признаки X и Y связаны линейной зависимостью. Если же принимается нулевая гипотеза, то выборочный коэффициент корреляции незначим, и, следовательно, признаки X и Y в ГС не связаны линейной зависимостью.

№ слайда 126 В качестве критерия проверки нулевой гипотезы используется случайная величина По
Описание слайда:

В качестве критерия проверки нулевой гипотезы используется случайная величина Показано, что эта СВ при справедливости нулевой гипотезы имеет распределение Стьюдента с k=n-2 степенями свободы. Ясно также, что при больших объемах выборки (n>30) можно вместо распределения Стьюдента использовать стандартный нормальный з.р. Поскольку конкурирующая гипотеза имеет вид ρ≠0, то следует строить двустороннюю критическую область. Определив, куда попадает вычисленное значение tнабл , делаем вывод о справедливости нулевой или же альтернативной гипотезы: Если | tнабл |

№ слайда 127 Проверка гипотезы о значимости выборочного коэффициента корреляции Спирмена При
Описание слайда:

Проверка гипотезы о значимости выборочного коэффициента корреляции Спирмена При проверке коэффициента корреляции Спирмена поступают совершенно аналогично тому, как мы поступали, работая с коэффициентом Пирсона.

№ слайда 128 Если объем выборки совсем маленький (n
Описание слайда:

Если объем выборки совсем маленький (n

№ слайда 129 Критерий знаков не связан с заданием каких-то конкретных значений параметров рас
Описание слайда:

Критерий знаков не связан с заданием каких-то конкретных значений параметров распределения, и поэтому на основе этого критерия формулируются так называемые непараметрические статистические гипотезы. Это самый простой критерий непараметрической статистики. Простота критерия объясняется двумя причинами: Не делается предположение о том, что ГС имеет нормальное распределение или какое-то другое распределение. Единственное предположение – распределение должно быть непрерывным. Критерий знаков использует только знаки различий между двумя числами, а не их количественную меру. Поэтому иногда его называют «ранговый критерий проверки гипотез». §12. Критерий знаков.

№ слайда 130 Пусть имеются две выборки одинакового объема n, и эти выборки проранжированы: x1
Описание слайда:

Пусть имеются две выборки одинакового объема n, и эти выборки проранжированы: x1

№ слайда 131 При справедливости гипотезы H0 k – дискретная случайная величина, распределенная
Описание слайда:

При справедливости гипотезы H0 k – дискретная случайная величина, распределенная по биномиальному з.р. с параметрами n и p=1/2, причем n - число отличных от нуля разностей: Критическая область строится в зависимости от альтернативной гипотезы, а вид альтернативной гипотезы связан с данными конкретной рассматриваемой задачи.

№ слайда 132 Алгоритм реализации критерия знаков таков: Рассматривают серию из n испытаний и
Описание слайда:

Алгоритм реализации критерия знаков таков: Рассматривают серию из n испытаний и подсчитывают число положительных и отрицательных разностей ri , нулевые разности исключаются из рассмотрения, выясняют число положительных разностей (число успехов k). 2. Для получения выводов используется критерий следующего вида: Понятно, что W(n,0)≈0 , а W(n,n)=1. 3. На основе свойств биномиальных коэффициентов для облегчения вычислений можно использовать равенство W(n;k) = 1 – W(n; n-k-1). Это равенство удобно использовать, когда k>n/2.

№ слайда 133 4. Критические области для значений критерия связаны с видом альтернативной гипо
Описание слайда:

4. Критические области для значений критерия связаны с видом альтернативной гипотезы H1: а) б) → положительных разностей мало (мало успехов)

№ слайда 134 в) → положительных разностей много (много успехов) 4. Вычисление критерия W(n;k)
Описание слайда:

в) → положительных разностей много (много успехов) 4. Вычисление критерия W(n;k) проводят при малых выборках (n≤30). При больших выборках (n>30) биномиальный з.р. переходит в нормальный з.р. , поэтому при n>30 обычно вводят иной критерий, ибо вычисления по нему существенно упрощаются. Этот критерий t при справедливости гипотезы H0 имеет стандартный нормальный з.р.:

№ слайда 135 § 13. Шкалы измерений признаков. Ранее были рассмотрены признаки, измеряемые в к
Описание слайда:

§ 13. Шкалы измерений признаков. Ранее были рассмотрены признаки, измеряемые в количественных шкалах - в этом случае для выяснения тесноты связи между признаками был использован коэффициент корреляции Пирсона, а также признаки, измеренные в шкале порядков - был использован коэффициент корреляции Спирмена. До сих пор не рассматривались ситуации, когда возникает необходимость изучить связи таких признаков, как профессия, и, допустим, политические убеждения, или уровень образования и политические убеждения, и тому подобное. Возникает новое понятие номинальных признаков и номинальных (неметрических) шкал измерений. В этом случае объекты группируются по различным классам так, чтобы внутри класса они были идентичны по измеряемому свойству. Следует научится выявлять наличие или же отсутствие связи между номинальными признаками и научиться количественно оценивать тесноту связи между ними, если она будет выявлена.

№ слайда 136 § 14. Связь номинальных признаков (таблицы сопряженности) Предположим, что призн
Описание слайда:

§ 14. Связь номинальных признаков (таблицы сопряженности) Предположим, что признаки статистически независимы, тогда введем две гипотезы: Н0: признаки независимы Н1: признаки зависимы Рассмотрен конкретный пример, в котором для простоты ограничились лишь двумя признаками: Признак А имеет r=2 уровня. Признак В имеет s=3 уровня.

№ слайда 137 Возникла таблица 2×3. Она называется таблицей сопряженности признаков А и В. В А
Описание слайда:

Возникла таблица 2×3. Она называется таблицей сопряженности признаков А и В. В А B1 B2 B3 Итого A1 42 n11 66 n12 28 n13 n1● =136 A2 8 n21 14 n22 42 n23 n2● =64 итого n●1=50 n●2=80 n●3=70 n=200

№ слайда 138 Введем обозначения: i - номер строки (i=1,2,…,r) j- номер столбца (j=1,2,…,s) ni
Описание слайда:

Введем обозначения: i - номер строки (i=1,2,…,r) j- номер столбца (j=1,2,…,s) nij - частота события Ai∩Bj – это количество объектов, обладающих комбинацией уровней Ai и Bj признаков А и В. Через ● будем обозначать суммирование по соответствующему признаку, тогда

№ слайда 139 Определение. Величины называются ожидаемыми или теоретическими частотами (имеетс
Описание слайда:

Определение. Величины называются ожидаемыми или теоретическими частотами (имеется в виду ожидаемыми при выполнении гипотезы H0)   При выполнении гипотезы H0 ожидаемые частоты не должны сильно отличаться от наблюдаемых частот nij .  

№ слайда 140 Если равенства (*) примерно выполняются, то гипотезу H0 можно признать справедли
Описание слайда:

Если равенства (*) примерно выполняются, то гипотезу H0 можно признать справедливой. Если же равенства (*) плохо выполняются, то гипотезу H0 отвергаем, т.е. отвергаем утверждение о независимости признаков и признаем справедливой альтернативную гипотезу H1: признаки зависимые. Сопоставим наблюдаемые Н и теоретические частоты Т: Мера согласия опытных данных с теоретической моделью: Суммы берется по всем ячейкам таблицы сопряженности. Для ответа на вопрос, что такое большое значение случайной величины Х2, надо знать распределение этой СВ. Ответ на этот вопрос дает следующая теорема:

№ слайда 141 Теорема (К. Пирсон, Р. Фишер): Если справедлива гипотеза Н0, на основе которой р
Описание слайда:

Теорема (К. Пирсон, Р. Фишер): Если справедлива гипотеза Н0, на основе которой рассчитаны теоретические частоты Т, то при неограниченном росте числа наблюдений n распределение СВ Х2 стремится к распределению χ- квадрат (χ2 ). Число степеней свободы этого распределения равно разности между числом событий и числом связей между nij, заложенных в таблице сопряженности. Число степеней свободы:

№ слайда 142 Как было сказано, распределение χ2 является предельным для СВ Х2 , поэтому испол
Описание слайда:

Как было сказано, распределение χ2 является предельным для СВ Х2 , поэтому использовать его как приближение для реальных распределений Х2 можно только при большом числе наблюдений n . Считается достаточным для возможности заменить распределение СВ Х2 распределением СВ χ2 выполнение следующего ограничения: для каждой ячейки теоретические частоты должны быть не меньше 5:

№ слайда 143 Значения Х2 считаются настолько большими, если они превосходят критические значе
Описание слайда:

Значения Х2 считаются настолько большими, если они превосходят критические значения распределения χ2, соответствующие выбранному уровню значимости. Здесь всегда по смыслу рассматривается правосторонняя критическая область, т.к. если нулевая гипотеза неверна, то Х2 принимает большое значение и, следовательно, χ2 также принимает большое значение.

№ слайда 144 Коэффициенты для вычисления тесноты связи между номинальными признаками: Коэффиц
Описание слайда:

Коэффициенты для вычисления тесноты связи между номинальными признаками: Коэффициент «фи» Коэффициент взаимной сопряженности Пирсона

№ слайда 145 Благодарю за внимание! Желаю удачи в написании итоговой контрольной работы !!!!!
Описание слайда:

Благодарю за внимание! Желаю удачи в написании итоговой контрольной работы !!!!!!!!!!!!

№ слайда 146 Благодарю за внимание!
Описание слайда:

Благодарю за внимание!

Скачать эту презентацию

Презентации по предмету
Презентации из категории
Лучшее на fresher.ru