Здавалка
Главная | Обратная связь

Біометрична обробка результатів досліджень



Вищою формою аналізу та пізнання дії об’єктивних законів у біологічних науках є використання статистико-математичних методів аналізу даних наукових досліджень. При цьому проведення більшості наукових досліджень зводиться до виявлення взаємозв’язків між явищами, процесами, вираженими в математичних показниках. Найрозповсюдженішим методом виявлення взаємозв’язків і взаємозалежностей є метод групувань. За його допомогою виявляють відмінності між груповими показниками, досліджують глибокі закономірності розвитку і вивчають наявні взаємозв’язки, характеризують структуру даного явища, процесу.

Метод аналітичних групувань тісно пов’язаний з методом кореляції, в основі якого лежить цифровий вираз залежності результативного показника від чинникового (наприклад, жирової маси від віку, величини прояву сили – від фізіологічного поперечника м’язу, плеча важеля дії тощо).

Для оцінки вірогідності отриманих в науковій роботі цифрових даних необхідно опрацювати їх біометрично. Мінімальне статистичне опрацювання – це визначення по кожній досліджуваній групі показників середнього арифметичного числа (М), його помилки (m), вірогідності різниці (t), точності досліду (P), коефіцієнта кореляції двох (чи більше) величин (r).

Значно полегшує (прискорює) біометричні розрахунки використання ЕОМ. Так, визначення таких основних показників варіації як середнє арифметичне ( ), розмах варіації (R), ліміти (lim), дисперсія ( ), середнє квадратичне відхилення ( ), коефіцієнт варіації (Cn), встановлення критеріїв достовірності, оцінки статистичної гіпотези та її перевірки (t-критерій Стьюдента та F-критерій Фішера), кореляційний аналіз (r) і встановлення лінійної та нелінійної регресій можна здійснити за допомогою програми Microsoft Exel, Mathematica, Statistica. Але дослідник повинен розуміти суть біометрії і значення добутих величин. Потрібно мати на увазі, що, наприклад, для проведення клінічних досліджень використовуються сертифіковані програми для статистичної обробки (Statistica).

При вимірюваннях величин неминуче виникають похибки унаслідок неточності вимірювальних приладів, неповноти знань та неможливості врахувати всі побічні явища. Тому виникає потреба у встановленні інтервалу, усередині якого із заданою вірогідністю знаходиться дійсне значення величини, що вимірюється.

Похибки, залежно від причини їх виникнення підрозділяють на систематичні, випадкові і грубі. Систематичною похибкою вимірювань називають похибку, яка залишається постійною або закономірно змінюється при повторних вимірюваннях однієї і тієї ж величини. Систематична похибка з'являється, наприклад, через неправильну установку початку відліку, неточного градуювання шкал приладів. Систематичні похибки можна усунути, виявивши їх ще до початку вимірів шляхом порівняння показів приладів з еталонними значеннями і потім, ввівши відповідні поправки в результати вимірювань

Випадковою похибкою вимірювання називають похибку, яка змінюється випадково при повторних вимірюваннях однієї і тієї ж величини. Випадкові похибки непередбачувані, змінюються за значенням і знаком при повторних вимірюваннях однієї і тієї ж величини. Вони викликаються сукупністю різних причин, дія яких неоднакова при кожному вимірюванні. Такими причинами є температура, атмосферний тиск, вологість повітря, флуктуації напруги живлення, нестабільність елементів схем приладів, недосконалість наших органів чуття. Поява випадкових похибок носить ймовірний характер, і для зменшення їх впливу вимірювання слід повторювати кілька разів.

Грубою називають похибку вимірювання, яка істотно перевищує очікувану за даних умов похибку. Грубі похибки виникають у тому випадку, коли на результат вимірювання сильно вплинув який-небудь випадковий чинник. Грубі похибки, як правило, виникають при неуважному відношенні до виконання вимірювання. Їх необхідно виявити і їх вплив на результат вимірювання усунути.

Кількісно похибки розділяються на абсолютну і відносну.

Абсолютна похибка визначається як різниця між виміряним значенням фізичної величини і дійсним її значенням:

Вона виражається в одиницях вимірюваної величини.

Відносна похибка визначається відношенням абсолютної похибки Δx до дійсного значення X вимірюваної величини:

Вона може бути виражена у відсотках.

Дійсне значення фізичної величини Χ невідомо, тому можна виконати лише наближену оцінку похибку її вимірювання. Точність вимірювання визначають як величину, зворотну модулю відносної похибки.

Оцінку випадкової похибки і визначення інтервалу, усередині якого із заданою вірогідністю лежить дійсне значення фізичної величини, проводять за результатами її багатократних вимірювань.

Найбільш близьким до дійсного значення вимірюваної величини є середнє арифметичне ряду окремих вимірів

,

де n – число повторних вимірів.

Середнє арифметичне значення міститиме істотно меншу похибку. У теорії похибок доводиться, що при збільшенні числа n середнє арифметичне прагне до дійсного значення вимірюваної величини. Випадкова похибка середнього арифметичного прагне до нуля. Абсолютна похибка вимірів з деякою вірогідністю не перевищує . Випадкова похибка середнього арифметичного може бути використана як оцінне значення абсолютної похибки. Остаточний результат вимірів записується як:

 

з довірчою вірогідністю α. Відносна похибка результату рівна:

Величина визначає інтервал, усередині якого з довірчою вірогідністю α лежить дійсне значення вимірюваної величини. Цей інтервал називають довірчим.

Довірча вірогідність α показує, з якою вірогідністю дійсне значення вимірюваної величини Х знаходиться усередині довірчого інтервалу.Результати виміру величини Х, можна змалювати графічно на числовій осі.

Істинне значення вимірюваної величини

 

Випадкові похибки виникають в результаті одночасної дії великого числа незалежних чинників. Основні їх властивості:

· при повторних вимірах однієї і тієї ж фізичної величини випадкові похибки є послідовністю випадкових чисел обох знаків;

· однакові за значенням, але різні за знаком похибки зустрічаються однаково часто;

· частіше зустрічаються менші за значенням похибки.

Властивості випадкової погрішності виходять із закону нормального розподілу Гауса:

,

де px) – щільність вірогідності появи випадкової похибки;

– дисперсія (розкид).

Графік нормального розподілу показаний (σ = 0,25 – крива 1; σ = 0,5 – крива 2; σ = 1,0 – крива 3). По осі абсцис відкладена випадкова похибка Δx, по осі ординат – щільність вірогідності появи випадкової похибки погрішності px). Максимум кривої розподілу приходиться на значення Δx = 0 (нульова випадкова похибка). Графік нормального закону розподілу залежить від параметра σ. Чим більше σ, тим більше пологий вигляд має крива розподілу.

Методику Стьюдента застосовують при числі вимірів n ≤ 30. Вона заснована на введенні дискретної функції розподілу для випадкової величини, що підкоряється нормальному закону розподілу в припущенні, що систематичні похибки відсутні.

Середнє арифметичне число (М) показує, яку величину ознаки мали б тварини даної групи, якби ця величина в усіх була однаковою. Показник М визначають за формулою:

 

Середнє квадратичне відхилення (s – сигма) показує, наскільки в середньому кожний варіант відхиляється від середнього арифметичного числа. В нормальних варіаційних рядах відхилення від середньої арифметичної вліво чи вправо не повинно перевищувати трьох сигм (правило трьох сигм). Для цього визначають відхилення кожного показника ( ) від середнього арифметичного по групі (М), підносять це відхилення у квадрат (а2), визначають суму (∑) з усіх квадратів відхилень, ділять її на кількість спостережень мінус один і з отриманого числа добувають квадратний корінь:

 

Середнє квадратичне відхилення (s) можна розрахувати за її розмахом з використанням константи (табл. 3) або ж за формулою:

 

Таблиця 3

Константа (К) для розрахункуsза її розмахом

n
1,13 1,69 2,06 2,33 2,53 2,70 2,85 2,97
3,08 3,17 3,26 3,34 3,41 3,47 3,53 3,59 3,64 3,69
3,73 3,78 3,82 3,86 3,90 3,93 3,96 4,00 4,03 4,06
4,09 4,11 4,14 4,16 4,19 4,21 4,24 4,26 4,28 4,30
4,32 4,34 4,36 4,38 4,40 4,42 4,43 4,45 4,47 4,48
4,50 4,51 4,53 4,54 4,56 4,57 4,58 4,60 4,61 4,63
4,64 4,65 4,66 4,68 4,69 4,70 4,71 4,72 4,73 4,74
4,75 4,77 4,78 4,79 4,80 4,81 4,82 4,83 4,83 4,84
4,85 4,86 4,87 4,88 4,89 4,90 4,91 4,91 4,92 4,93
4,94 4,95 4,96 4,96 4,97 4,98 4,99 4,99 5,00 5,01
5,02                  
5,49                  

 

Коефіцієнт варіації(Cn) – процентне відношення середнього квадратичного відхилення до середнього арифметичного числа – показує, на скільки стабільна дана ознака. Чим більше значення Cn, тим більша мінливість ознаки:

Помилка середньої арифметичної(m) – це відношення середнього квадратичного відхилення до кореня квадратного з n – 1. Показник свідчить про ступінь мінливості ознаки; чим він менший, тим менш мінливе середнє арифметичне число.

При малій кількості спостережень (n < 30) статистичну помилку m визначають за формулою:

, а при n > 30;

Критерій вірогідності (t) – це відношення M/m (наприклад, вірогідність зміни концентрації гемоглобіну в процесі фізичного навантаження – до і після тренування). При визначенні суттєвої різниці між двома середніми арифметичними вірогідною вважають різницю при t = 2,5.

При визначенні вірогідності досліджень, проведених у динаміці на одній групі, застосовують формулу t = M/m, а при визначенні вірогідності різниці між двома середніми арифметичними – за формулою:

 

 

Для ще більшої вірогідності за допомогою таблиці коефіцієнтів Стьюдента (табл. 4) визначають вірогідність різниці (P).


Таблиця 4

Таблиця коефіцієнтів Стьюдента для визначення вірогідності різниці (Р) (ймовірність різниці за коефіцієнтом довіри (у %)

n P = 0,5 0,2 0,1 0,05 0,02 0,01 0,001
1. 1,000 3,078 6,314 12,706 31,821 63,657 637,59
2. 0,816 1,886 2,920 4,303 6,965 9,925 31,60
3. 0,765 1,638 2,353 3,182 4,541 5,841 12,94
4. 0,741 1,533 2,132 2,776 3,747 4,604 8,61
5. 0,727 1,476 2,015 2,571 3,365 4,032 6,86
6. 0,718 1,440 1,943 2,447 3,143 3,707 5,96
7. 0,711 1,415 1,895 2,365 2,998 3,499 5.31
8. 0,706 1,397 1,860 2,306 2,896 3,355 5,04
9. 0,703 1,333 1,833 2,262 2,321 3,250 4,78
10. 0,700 1,372 1,812 2,223 2,764 3,169 4,59
11. 0,697 1,363 1,796 2,201 2,718 3,106 4,44
12. 0,695 1,356 1,782 2,179 2,613 3,055 4,32
13. 0,694 1,350 1.771 2,160 2,650 3,012 4,22
14. 0,692 1,345 1,761 2,145 2,624 2,977 4,14
15. 0.691 1,341 1,753 2,131 2.602 2,947 4,07
16. 0,690 1,337 1,746 2,120 2,583 2,921 4,02
17. 0,89 1,333 1,740 2,110 2,567 2,858 3,96
18. 0,688 1,330 1,734 2,101 2,552 2,878 3,92
19. 0,686 1,328 1,729 2,093 2,539 2,861 3,88
20. 0,687 1,325 1,725 2,066 2,528 2,845 3,85
21. 0,686 1,323 1,721 2,080 2,518 2,831 3,82
22. 0,686 1,321 1,717 2,074 2,503 2,19 3,79
23. 0,685 1,319 1.714 2,069 2,500 2,807 3.77
24. 0,685 1,318 1,711 2,064 2,492 2,797 3,75
25. 0,684 1,316 1,708 2,060 2,495 2,737 3.73
26. 0,684 1,315 1,706 2,056 2,479 2,779 3,71
27. 0,684 1,314 1,703 2,052 2,473 2.771 3,69
28. 0,683 1,313 1,701 2,048 2,467 2,763 3,67
29. 0,683 1,311 1,699 2,045 2,462 2,756 3,66
30. 0,683 1,310 1,697 2,042 2,457 2,750 3,64
0,674 1,282 1,645 1,960 2,326 2,576 3,29

 

Різниця вважається вірогідною, починаючи із значення P < 0,05, тобто у тих випадках, коли ймовірність різниці понад 95%, коли за правильність висновку маємо 95 шансів із 100. При P < 0,01 вірогідність різниці вища 99%, а при P < 0,001 – більша 99,9%.

У багатьох випадках виникає потреба з’ясувати зв’язок (кореляцію) між різними ознаками (наприклад, концентрацією гемоглобіну в крові та її кисневою ємністю; запасами глікогену в печінці та м’язах і рівнем розвитку витривалості тощо), користуючись формулою:

 

Величина коефіцієнта кореляції коливається від +1 (повна позитивна кореляція) до –1 (повна негативна кореляція).

 

Контрольні запитання:

1. Які методи теоретичних досліджень ви знаєте?

2. Наведіть приклади використання методу моделювання у біології.

3. Наведіть особливості проведення методів експериментальних досліджень.

4. Назвіть біологічні методи досліджень.

5. Що таке метод польових досліджень?

6. Що треба знати при використанні лабораторних тварин у наукових дослідженнях?

7. Які методи оцінки вимірювань ви знаєте?

8. Розкажіть про біометричну обробку результатів досліджень.

 

 







©2015 arhivinfo.ru Все права принадлежат авторам размещенных материалов.