Допомога у написанні освітніх робіт...
Допоможемо швидко та з гарантією якості!

Корреляционные моменти. 
Коефіцієнт корреляции

РефератДопомога в написанніДізнатися вартістьмоєї роботи

Розглядаючи перелічені вище події, бачимо, що з них має якийсь ступенем можливості: одна більшої, інші — меншою. Для здобуття права кількісно порівнювати між собою події за рівнем їхньої можливості, очевидно, потрібно з кожним подією зв’язати певна кількість, яке то більше вписувалося, що більш можливо подія. Таке число називають ймовірністю події. Отже, ймовірність події є чисельна… Читати ще >

Корреляционные моменти. Коефіцієнт корреляции (реферат, курсова, диплом, контрольна)

ДЕРЖАВНИЙ КОМІТЕТ ПО НАУЦІ І ТЕХНІЦІ АЗЕРБАЙДЖАНСЬКОЇ РЕСПУБЛИКИ.

БАКИНСЬКИЙ НАУКОВО-НАВЧАЛЬНИЙ ЦЕНТР.

РЕФЕРАТ.

АСПІРАНТА КАФЕДРИ ДИТЯЧОЇ ХИРУРГИИ.

АМУ імені М. НАРИМАНОВА.

МУХТАРОВА ЭМИЛЯ ГАСАН оглы.

НА ТЕМУ:

КОРЕЛЯЦІЙНІ МОМЕНТИ. КОЕФІЦІЄНТ КОРРЕЛЯЦИИ.

БАКУ — 1999.

Теорія ймовірності є математична наука, вивчає закономірності у випадкових явлениях.

Що й казати розуміється під випадковими явлениями?

При науковому дослідженні фізичних і технічних завдань, часто доводиться чи з явищами особливого типу, які заведено називати випадковими. Випадкове явище — це таке явище, яке за кількаразовому відтворенні однієї й тієї ж досвіду протікає трохи заиному.

Наведемо приклад випадкового явления.

Одне і те тіло кілька разів зважується на аналітичних терезах: результати повторних зважувань дещо різняться друг від друга. Ці розбіжності зумовлюються впливом різних другорядних чинників, супроводжуючих операцію зважування, як-от випадкові вібрації апаратури, помилки відліку показань приладу і т.д.

Вочевидь, що у природі немає жодної фізичного явища, в якому були відсутні б тій мірою елементи випадковості. Як б саме і докладно не були фіксовані умови досвіду, неможливо досягти здобуття права за умови повторення досвіду результати цілком у точності совпадали.

Випадки неминуче супроводжують кожному закономірного явища. Тим щонайменше, у низці практичних завдань цими випадковими елементами можна знехтувати, розглядаючи замість реального явища його спрощену схему, тобто. модель, й гадаючи, що у умовах досвіду явище протікає цілком належним чином. У цьому з безлічі чинників, які впливають дане явище, виділяють найголовніші, основні, вирішальні. Впливом інших, другорядних чинників просто нехтують. Вивчаючи закономірності у межах деякою теорії, основні чинники, що впливають то чи інше явище, входить у поняття чи визначення, якими оперує розглянута теория.

Як і наука, розвиває загальну теорію будь-якого кола явищ, теорія ймовірностей також має ряд основних понять, на яких вона базується. Природно, що не засадничі поняття може бути суворо визначено, оскільки визначити поняття — це що означає звести його до іншим, відомішим. Цей процес відбувається може бути кінцевим і закінчуватися на первинних поняттях, що тільки поясняются.

Серед перших понять теоретично ймовірності вводиться поняття события.

Під подією розуміється всякий факт, які виникли внаслідок досвіду може відбутися або произойти.

Наведемо приклади событий.

А — народження хлопчика чи девочки;

У — обрання тієї чи іншої дебюту в шахової игре;

З — належність до тому чи іншому зодіакальному знаку.

Розглядаючи перелічені вище події, бачимо, що з них має якийсь ступенем можливості: одна більшої, інші - меншою. Для здобуття права кількісно порівнювати між собою події за рівнем їхньої можливості, очевидно, потрібно з кожним подією зв’язати певна кількість, яке то більше вписувалося, що більш можливо подія. Таке число називають ймовірністю події. Отже, ймовірність події є чисельна характеристика ступеня об'єктивної можливості события.

За одиницю ймовірності приймають ймовірність достовірного події, рівну 1, а діапазон зміни ймовірностей будь-яких подій — числа від 0 до 1.

Можливість зазвичай позначають буквою Р.

Розглянемо з прикладу одвічною проблеми шекспірівського Гамлета «бути же не бути? «як і визначити ймовірність события.

Зрозуміло, що людина, предмет і інше явище може перебувати у одному з цих двох і станів: наявності («бути ») і відсутності («же не бути »). Тобто., можливих подій дві, а статися може лише одна. Це означає, що ймовірність, наприклад буття, дорівнює ½.

Крім поняття події та ймовірності, однією з основних понять теорії ймовірностей є поняття випадкової величины.

Випадкової величиною називається величина, котра внаслідок досвіду може взяти ту чи іншу значення, причому невідомо заздалегідь яке именно.

Випадкові величини, приймаючі лише окремі друг від друга значення, які можна заздалегідь перерахувати, називаються прерывными чи дискретними випадковими величинами.

Например:

1. Кількість выживших і мертвих больных.

2. Загальна кількість дітей із які поступили за на ніч у лікарню больных.

Випадкові величини, можливі значення яких безупинно заповнюють певний проміжок, називають безперервними випадковими величинами.

Наприклад, помилка зважування на аналітичних весах.

Зазначимо, сучасна теорія ймовірності переважно оперує випадковими величинами, а чи не подіями, куди переважно спиралася «класична «теорія вероятностей.

КОРЕЛЯЦІЙНІ МОМЕНТИ. КОЕФІЦІЄНТ КОРРЕЛЯЦИИ.

Кореляційні моменти, коефіцієнт кореляції - це числові характеристики, тісно пов’язані у запровадженим вище поняттям випадкової величини, а з системою випадкових величин. Тож запровадження і визначення їхніх значення й ролі необхідно пояснити поняття системи випадкових величин і пояснюються деякі властивості властиві им.

Два або як випадкові величини, що описують деяке явище називають системою чи комплексом випадкових величин.

Систему кількох випадкових величин X, Y, Z, …, W прийнято позначати через (X, Y, Z, …, W).

Наприклад, точка на площині описується не однієї координатою, а двома, а просторі - навіть тремя.

Властивості системи кількох випадкових величин не вичерпуються властивостями окремих випадкових величин, входять до системи, а включають також взаємні зв’язку (залежності) між випадковими величинами. Тому, за вивченні системи випадкових величин слід звернути увагу до характері і ступінь залежності. Ця залежність може бути більш більш-менш яскраво вираженої, більш-менш тісній. На інших випадках випадкові величини виявитися практично независимыми.

Випадкова величина Y називається незалежної від випадкової величини Х, якщо закон розподілу випадкової величини Y залежить від того яке значення прийняла величина Х.

Слід зазначити, що залежність і випадкових величин є завжди явище взаємне: якщо Y залежить від Х, те й величина Х не залежить від Y. Зважаючи на це, можна навести таке визначення незалежності випадкових величин.

Випадкові величини Х і Y називаються незалежними, якщо закон розподілу кожної їх залежить від того, яке прийняла інша. Інакше величини Х і Y називаються зависимыми.

Законом розподілу випадкової величини називається всяке співвідношення, встановлює зв’язок між можливими значеннями випадкової розміру й відповідними їм вероятностями.

Поняття «залежності «випадкових величин, яким мають теорії ймовірностей, трохи відрізняється від звичайного поняття «залежності «величин, яким мають математиці. Так, математик під «залежністю «передбачає не лише один тип залежності - повну, жорстку, так звану функціональну залежність. Дві величини Х і Y називаються функціонально залежними, якщо, знаючи значення однієї з них, не складно визначити значення другой.

Теоретично ймовірностей зустрічаються кілька з іншим типом залежності - вероятностной залежністю. Якщо величина Y пов’язані з величиною Х вероятностной залежністю, то, знаючи значення Х, не можна точно вказати значення Y, а можна вказати її закон розподілу, залежить від того, яке прийняла величина Х.

Імовірнісна залежність може бути більш більш-менш тісній; по збільшення тісноти вероятностной залежності вона дедалі більше наближається до функціональної. Т.а., функціональну залежність можна розглядати, як крайній, граничний випадок найбільш тісній вероятностной залежності. Інший випадок — повна незалежність випадкових величин. Між цими двома крайніми випадками лежать все градації вероятностной залежності - від самого сильної аж до слабой.

Імовірнісна залежність між випадковими величинами часто зустрічається практично. Якщо випадкові величини Х і Y перебувають у вероятностной залежності, це значить, що зі зміною величини Х величина Y змінюється цілком належним чином; це лише означає, що з зміною величини Х величина Y має тенденцію також змінюватися (зростати чи убувати за умов зростання Х). Ця тенденція дотримується в загальних рисах, а кожному окремому разі можливі відступу від неё.

Приклади вероятностной зависимости.

Виберемо навмання одну хвору з перитонітом. випадкова величина Т — період від початку захворювання, випадкова величина Про — рівень гомеостатических порушень. Між цими величинами є явна залежність, оскільки величина Т є одним із найбільш головних причин, визначальних величину О.

У той самий час між випадкової величиною Т і випадкової величиною М, що відбиває летальність при даної патології, зазвичай більше слабка імовірнісна залежність, оскільки випадкова величина хоч впливає на випадкову величину Про, однак не головною определяющей.

Тим паче, якщо розглядати величину Т величину У (вік хірурга), то дані величини практично независимы.

До цього часу ми обговорювали властивості систем випадкових величин, даючи лише словесної роз’яснення. Проте і числові характеристики, з яких досліджуються властивості як розписування окремих випадкових величин, і системи випадкових величин.

Однією з найважливіших характеристик випадкової величини нормального розподілу є математичне ожидание.

Розглянемо дискретну випадкову величину Х, має можливі значення Х1, Х2, …, Хn з імовірностями р1, р2, …, рn. нам потрібно охарактеризувати якимось числом становище значень випадкової величини на осі абсцис з огляду на те, що це значення мають різні значення. Для цього зазвичай користуються так званим «середнім зваженим «з значень Хi, причому кожне значення Хi при осреднении має враховуватися з «вагою », пропорційним ймовірності цього значення. Отже, якщо позначити «середнє зважене «через М[X] чи mx, получим.

[pic] чи, враховуючи, що [pic], то.

[pic][pic](1).

Математичним очікуванням випадкової величини називається сума творів всіх можливих значень випадкової величини на ймовірності цих значений.

Для наочності розглянемо одну механічну інтерпретацію введеного поняття. Нехай на осі абсцис розташовані точки з абсциссами х1, х2, …, хn, у яких зосереджені відповідно маси р1, р2, …, рn, причому [pic]. Тоді математичне очікування не що інше, як абсциса центру ваги даної системи матеріальних точек.

Формула (1) для математичного очікування відповідає випадку дискретної випадкової величини. Для безупинної величини Х математичне очікування, природно, виражається не сумою, а интегралом:

[pic][pic](2),.

где [pic] - щільність розподілу величини Х.

Формула (2) виходить з формули (1), тоді як ній замінити окремі значення Хi безупинно змінюваним параметром Х, відповідні ймовірності рi елементом ймовірності f (x)dx, кінцеву суму — интегралом.

У механічної інтерпретації математичне очікування безупинної випадкової величини зберігає хоча б сенс — абсциссы центру ваги в разі, коли маса розподілу по осі абсцис безупинна з щільністю f (x).

Слід зазначити, що математичне очікування існує для всіх випадкових величин, що, проте, на думку учених, не може практики істотного интереса.

Крім математичного очікування важливого значення мають також інші числові випадкової величини — моменты.

Поняття моменту широко застосовується у механіці для описи розподілу мас (статистичні моменти, моменти інерції тощо.). Цілком тими самими прийомами мають теорії ймовірностей для описи основних властивостей розподілу випадкової величини. Найчастіше застосовуються практично моменти два види: початкові і центральные.

Початковим моментом s-го порядку прерывной випадкової величини Х називається сума вида.

[pic].

Вочевидь визначення збігаються з визначенням початкового моменту порядку p. s в механіці, якби осі абсцис в точках х1, …, хn зосереджена маса р1, …, рn.

Для безупинної випадкової величини Х початковим моментом s-го порядку називається интеграл.

[pic].

Вочевидь, что.

[pic], тобто. початковий момент s-го порядку випадкової величини Х не що інше, як математичне очікування s-ой ступеня цієї випадкової величины.

Перш ніж дати визначення центрального моменту введемо поняття «центрированной випадкової величини » .

Нехай є випадкова величина Х з математичним очікуванням mx. Центрированной випадкової величиною, відповідної величині Х, називається відхилення випадкової величини Х від її математичного ожидания.

[pic].

Неважко бачити, що математичне очікування центрированной випадкової величини одно нулю.

Центрування випадкової величини рівносильне переносу початку координат в точку, абсциса якої дорівнює математичного ожиданию.

Центральним моментом порядку p. s випадкової величини Х називається математичне очікування s-ой ступеня відповідної центрированной випадкової величины:

[pic].

Для прерывной випадкової величини s-й центральний момент виражається суммой.

[pic], а безупинної - интегралом.

[pic].

Найважливіша значення має тут другий центральний момент, який називають дисперсией і позначають D[X]. Для дисперсії имеем.

[pic].

Дисперсія випадкової величини є характеристикою розсіювання, незібраності значень випадкової величини близько її математичного очікування. Саме поняття «дисперсія «означає «розсіювання » .

Механічній інтерпретацією дисперсії не що інше, як момент інерції заданого розподілу мас щодо центру тяжести.

Насправді часто застосовується також величина.

[pic], звана середнім квадратичным відхиленням (інакше — «стандартом ») випадкової величини Х.

Тепер час торкнутися розгляду характеристик систем випадкових величин.

Початковим моментом порядку k, s системи (Х, Y) називається математичне очікування твори Xk і Ys, xk, s=M[XkYs].

Центральним моментом порядку k, s системи (Х, Y) називається математичне очікування твори k-ой і s-ой ступеня відповідних зосереджених величин:

[pic], де [pic], [pic].

Для перериваних випадкових величин.

[pic].

[pic], де рij — можливість, що систему (Х, Y) приймемо значення (xi, yj), а сума розглядається на всіх можливих значенням випадкових величин X, Y.

Для безперервних випадкових величин.

[pic].

[pic], де f (x, y) — щільність розподілу системы.

Крім чисел k і p. s, характеризуючих порядок моменту стосовно окремим величинам, розглядається ще сумарний порядок моменту k+s, рівний сумі показників ступенів при Х і Y. Відповідно сумарному порядку моменти класифікують перший, другий тощо. Насправді зазвичай застосовуються лише й ті моменты.

Перші початкові моменти є математичні очікування величин Х і Y, які входять у систему.

?1,0=mx ?0,1=my.

Сукупність математичних очікувань mx, my є характеристику становища системи. Геометрично це координати середньої крапки над площині, навколо якої вже відбувається розсіювання точки (Х, Y).

Важливу роль практично грають також другі центральні моменти систем. Два їх є дисперсії величин Х і Y.

[pic] [pic], що характеризують розсіювання випадкової точки у бік осей Ox і Oy.

Особливу роль грає другий усунутий центральний момент:

[pic], званий корреляционным моментом (інакше — «моментом зв’язку »)випадкових величин Х і Y.

Кореляційний момент є характеристикою системи випадкових величин, яка описувала, крім розсіювання величин Х і Y, що й зв’язок між ними. А, щоб у цьому зауважимо, що кореляційний момент незалежних випадкових величин дорівнює нулю.

Зауважимо, що кореляційний момент характеризує як залежність величин, а й їхні розсіювання. Тож характеристики зв’язку між величинами (Х;Y) в чистому вигляді переходять від часу Kxy до характеристике.

[pic][pic], (3) де? x, ?y — середні квадратичные відхилення величин Х і Y. Ця характеристика називається коефіцієнтом кореляції величин Х і Y.

З формули (3) видно, що з незалежних випадкових величин коефіцієнт кореляції нульовий, оскільки для таких величин kxy=0.

Випадкові величини, котрим rxy=0, називають некоррелированными (несвязанными).

Зазначимо проте, що з некоррелированности випадкових величин не слід їм независимость.

Коефіцієнт кореляції характеризує не будь-яку залежність, а лише таким чином звану лінійну залежність. Лінійна імовірнісна залежність випадкових величин у тому, що з зростанні однієї випадкової величини інша має тенденцію зростання (або ж убувати) по лінійному закону. Т.а., коефіцієнт кореляції характеризує ступінь тісноти лінійної залежності між випадковими величинами.

Для визначення коефіцієнта кореляції є кілька методів. Але ми наведемо приклад із використанням коефіцієнта кореляції змішаних моментів Пірсона, где.

[pic] (4) із застосуванням таблиці даних (у нашій прикладі відносного змісту Тлімфоцитів в % і підвищення рівня IgG в г/л): |1 |2 |3 |4 |5 |6 |7 | |x |Y |x «|y «|x «y «|x «2 |y «2 | |69,8 |17,1 |1,9 |1,65 |3,135 |3,61 |2,7225 | |69,5 |16,9 |1,6 |1,45 |2,32 |2,56 |2,1025 | |68,8 |16,2 |0,9 |0,75 |0,675 |0,81 |0,5625 | |67,5 |14,8 |-0,4 |-0,65 |0,26 |0,16 |0,4225 | |66,4 |14,1 |-1,5 |-1,35 |2,025 |2,25 |1,8225 | |65,5 |13,6 |-2,4 |-1,85 |5,76 |5,76 |3,4225 | |S=679 |S=154,5 | | |S=12,855 |S=15,15 |S=11,055 |.

Підставивши отримані значення формулу (4), получим.

[pic].

Тобто., коефіцієнт кореляції динаміки Т-лімфоцитів і імуноглобуліну G в дітей віком при перитонитах дорівнює 0,9933, що свідчить про високої зв’язок між даними показателями.

1. Гублер Є.В., Генкин А. А. Застосування непараметрических критеріїв статистики в медико-біологічних дослідженнях. — Л.: Медицина,.

1973.

2. Вентцель Е. С., Вівчарів Л.А. Теорія ймовірностей і її інженерні докладання. — М.: Наука, 1988.

3. Застосування обчислювальної техніки і математичної теорії експерименту у наукових дослідженнях (навчальних посібників).// Під ред. М-Б.А. Бабаєва. — Баку, «Елм ». — 1999. — 85 стр.

Показати весь текст
Заповнити форму поточною роботою