Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

Подписываем
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Предоплата всего
Подписываем
ГЛАВА 5. НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ И ЕГО ПРИМЕНЕНИЕ
А. Д. НАСЛЕДОВ
МАТЕМАТИЧЕСКИЕ МЕТОДЫ Л Г ПСИХОЛОГИЧЕСКОГО ИССЛЕДОВАНИЯ 1
РЕЧЬ
Анализ и интерпретация данных
А. Д. НАСЛЕДОВ
МАТЕМАТИЧЕСКИЕ МЕТОДЫ
ПСИХОЛОГИЧЕСКОГО ИССЛЕДОВАНИЯ
Анализ и интерпретация данных
РЕЧЬ
Санкт-Петербург 2004
Учебное пособие
ББК 88.36 Н31
Рецензенты:
В.М. Аллахвердов, доктор психологических наук, профессор кафедры
общей психологии СПбГУ; В. М. Буре, кандидат физико-математических наук, доцент факультета прикладной математики — процессов управления СПбГУ
Рекомендовано Ученым советом факультета психологии СПбГУ в качестве учебного пособия
Наследов А. Д.
Н31 Математические методы психологического исследования. Анализ и интерпретация данных. Учебное пособие. — СПб.: Речь, 2004. — 392 с.
18ВЫ 5-9268-0275-7
В данной книге многообразие математико-статистических методов представлено в виде упорядоченной, логически и иерархически взаимосвязанной системы с ориентацией на читателя, не имеющего основательной математической подготовки. Описаны основы применения этих методов, алгоритмы их выбора в зависимости от исследовательской ситуации — от исходных данных и задач исследования. При изложении методов основное внимание уделяется границам их применения, возможным альтернативам, особенностям интерпретации результатов. Применение каждого метода сопровождается простыми примерами и пошаговыми алгоритмами вычислений — как «вручную», так и на компьютере.
Книга адресована студентам психологических и педагогических специальностей, но может быть полезна и широкому кругу исследователей как справочник и руководство по обработке данных.
ББК 88.36
© А. Д. Наследов, 2004 © М. Г. Филиппова, рисунки, 2004 © Издательство «Речь», 2004 181Ш 5-9268-0275-7 © П. В. Борозенец, обложка, 2004
КРАТКОЕ СОДЕРЖАНИЕ
Часть I ОСНОВЫ ИЗМЕРЕНИЯ И КОЛИЧЕСТВЕННОГО ОПИСАНИЯ ДАННЫХ
Глава 1. Генеральная совокупность и выборка 19
Глава 2. Измерения и шкалы 23
Глава 3. Таблицы и графики 30
Глава 4. Первичные описательные статистики 40
Глава 5. Нормальный закон распределения и его применение 49
Глава 6. Коэффициенты корреляции 64
Часть II
МЕТОДЫ СТАТИСТИЧЕСКОГО ВЫВОДА: ПРОВЕРКА ГИПОТЕЗ
Глава 7. Введение в проблему статистического вывода 93
Глава 8. Выбор метода статистического вывода 111
Глава 9. Анализ номинативных данных 123
Глава 10. Корреляционный анализ 147
Глава 11. Параметрические методы сравнения двух выборок 162
Глава 12. Непараметрические методы сравнения выборок 172
Глава 13. Дисперсионный анализ (А1ЧОУА) 185
Часть III
МНОГОМЕРНЫЕ МЕТОДЫ И МОДЕЛИ
Глава 14. Назначение и классификация многомерных методов 235
Глава 15. Множественный регрессионный анализ 240
Глава 16. Факторный анализ 251
Глава 17. Дискриминантный анализ 282
Глава 18. Многомерное шкалирование 299
Глава 19. Кластерный анализ 329
Приложения. Основные статистические таблицы 353
Англо-русский терминологический словарь 377
Предметный указатель 382
Дополнительная литература 389
ОГЛАВЛЕНИЕ
ПРЕДИСЛОВИЕ 9
ПСИХОЛОГИЯ И МАТЕМАТИКА 13
Часть I
ОСНОВЫ ИЗМЕРЕНИЯ И КОЛИЧЕСТВЕННОГО ОПИСАНИЯ ДАННЫХ
Глава 1. ГЕНЕРАЛЬНАЯ СОВОКУПНОСТЬ И ВЫБОРКА 19
Глава 2. ИЗМЕРЕНИЯ И ШКАЛЫ 23
Что такое измерение 23
Измерительные шкалы 24
Как определить, в какой шкале измерено явление 27
Задачи и упражнения 29
Глава 3. ТАБЛИЦЫ И ГРАФИКИ 30
Таблица исходных данных 30
Таблицы и графики распределения частот 31
Применение таблиц и графиков распределения частот 35
Таблицы сопряженности номинативных признаков 36
Задачи и упражнения 37
Обработка на компьютере 38
Глава 4. ПЕРВИЧНЫЕ ОПИСАТЕЛЬНЫЕ СТАТИСТИКИ 40
Меры центральной тенденции 40
Выбор меры центральной тенденции 42
Квантили распределения 43
Меры изменчивости 44
Задачи и упражнения 47
Обработка на компьютере 48
Глава 5. НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ И ЕГО
ПРИМЕНЕНИЕ 49
Нормальное распределение как стандарт 51
Разработка тестовых шкал 54
Проверка нормальности распределения 59
Задачи и упражнения 62
Обработка на компьютере 62
Глава 6. КОЭФФИЦИЕНТЫ КОРРЕЛЯЦИИ 64
Понятие корреляции 65
Коэффициент корреляции г-Пирсона 67
Корреляция, регрессия и коэффициент детерминации 72
Частная корреляция 75
Ранговые корреляции 77
Коэффициент корреляции г-Спирмена 77
Коэффициент корреляции 7-Кендалла 78
Проблема связанных (одинаковых) рангов 80
Корреляция бинарных данных 82
Величина корреляции и сила связи 84
Какой коэффициент корреляции выбрать 88
Обработка на компьютере 90
Часть II
МЕТОДЫ СТАТИСТИЧЕСКОГО ВЫВОДА: ПРОВЕРКА ГИПОТЕЗ
Глава 7. ВВЕДЕНИЕ В ПРОБЛЕМУ СТАТИСТИЧЕСКОГО ВЫВОДА 93
Гипотезы научные и статистические 93
Идея проверки статистической гипотезы 96
Уровень статистической значимости 98
Статистический критерий и число степеней свободы 99
Проверка гипотез с помощью статистических критериев 100
Статистическое решение и вероятность ошибки 103
Направленные и ненаправленные альтернативы 106
Содержательная интерпретация статистического решения 108
Глава 8. ВЫБОР МЕТОДА СТАТИСТИЧЕСКОГО ВЫВОДА 111
Классификация методов статистического вывода 112
Методы корреляционного анализа 114
Методы анализа номинативных данных 114
Методы сравнения выборок по уровню выраженности признака 117
Глава 9. АНАЛИЗ НОМИНАТИВНЫХ ДАННЫХ 123
Анализ классификации: сравнение эмпирического и теоретического
распределений 125
Две градации 125
Обработка на компьютере: биномиальный критерий 128
Более двух градаций 129
Обработка на компьютере: критерий согласия %2 131
Анализ таблиц сопряженности 132
Число градаций больше двух 133
Таблицы сопряженности 2x2 135
Обработка на компьютере: таблицы сопряженности 141
Анализ последовательности: критерий серий 142
Обработка на компьютере: анализ последовательности 145
Глава 10. КОРРЕЛЯЦИОННЫЙ АНАЛИЗ 147
Корреляция метрических переменных 148
Частная корреляция 150
Проверка гипотез о различии корреляций 151
Сравнение корреляций для независимых выборок 151
Сравнение корреляций для зависимых выборок 152
Корреляция ранговых переменных 153
Анализ корреляционных матриц 156
Обработка на компьютере 160
Глава 11. ПАРАМЕТРИЧЕСКИЕ МЕТОДЫ СРАВНЕНИЯ ДВУХ
ВЫБОРОК 162
Сравнение дисперсий 162
Критерий /-Стьюдента для одной выборки 164
Критерий /-Стьюдента для независимых выборок 165
Критерий /-Стьюдента для зависимых выборок 167
Обработка на компьютере 169
Глава 12. НЕПАРАМЕТРИЧЕСКИЕ МЕТОДЫ СРАВНЕНИЯ
ВЫБОРОК 172
Общие замечания 172
Сравнение двух независимых выборок 173
Обработка на компьютере: критерий {/-Манна-Уитни 175
Сравнение двух зависимых выборок 176
Обработка на компьютере: критерий Г-Вилкоксона 178
Сравнение более двух независимых выборок 179
Обработка на компьютере: критерий Я-Краскала-Уоллеса 181
Сравнение более двух зависимых выборок 182
Обработка на компьютере: критерий х,2-Фридмана 184
Глава 13. ДИСПЕРСИОННЫЙ АНАЛИЗ (АМОУА) 185
Назначение и общие понятия АМОУА 185
Однофакторный АМОУА 189
Обработка на компьютере 195
Множественные сравнения в АМОУА 197
Обработка на компьютере 199
Многофакторный А1ЧОУА 202
Обработка на компьютере 212
АМОУА с повторными измерениями 214
Обработка на компьютере 222
Многомерный АМОУА (МА1ЧОУА) 226
Обработка на компьютере 228
Часть III
МНОГОМЕРНЫЕ МЕТОДЫ И МОДЕЛИ
Глава 14. НАЗНАЧЕНИЕ И КЛАССИФИКАЦИЯ МНОГОМЕРНЫХ
МЕТОДОВ 235
Глава 15. МНОЖЕСТВЕННЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ 240
Назначение 240
Математико-статистические идеи метода 242
Исходные данные, процедура и результаты 245
Обработка на компьютере 247
Глава 16. ФАКТОРНЫЙ АНАЛИЗ 251
Назначение 251
Математико-статистические идеи и проблемы метода 254
Анализ главных компонент и факторный анализ 254
Проблема числа факторов 259
Проблема общности 260
Методы факторного анализа 261
Проблема вращения и интерпретации 263
Проблема оценки значений факторов 267
Последовательность факторного анализа 268
Пример 273
Обработка на компьютере 277
Глава 17. ДИСКРИМИНАНТНЫЙ АНАЛИЗ 282
Назначение 282
Математико-статистические идеи метода 284
Исходные данные и основные результаты 289
Обработка на компьютере 291
Глава 18. МНОГОМЕРНОЕ ШКАЛИРОВАНИЕ 299
Назначение 299
Меры различия 306
Неметрическая модель 311
Обработка на компьютере 314
Модель индивидуальных различий 317
Обработка на компьютере 321
математические методы психологического исследования
Модель субъективных предпочтений 324
Обработка на компьютере 326
Глава 19. КЛАСТЕРНЫЙ АНАЛИЗ 329
Назначение 329
Методы кластерного анализа 333
Обработка на компьютере: кластерный анализ объектов 336
Кластерный и факторный анализ 338
Обработка на компьютере: кластерный анализ корреляций 340
Кластерный анализ результатов социометрии 342
Обработка на компьютере: кластерный анализ различий 346
Кластерный анализ и многомерное шкалирование 347
Приложения ОСНОВНЫЕ СТАТИСТИЧЕСКИЕ ТАБЛИЦЫ
Приложение 1. Стандартные нормальные вероятности 353
Приложение 2. Критические значения критерия /-Стьюдента 355
Приложение 3. Критические значения критерия /-Фишера для проверки
направленных альтернатив 357
Приложение 4. Критические значения критерия %2 359
Приложение 5. Критические значения для числа серий 361
Приложение 6. Критические значения коэффициентов корреляции
г-Пирсона (г-Спирмена) 363
Приложение 7. Значения ^-преобразования Фишера для коэффициентов корреляции 365
Приложение 8. Критические значения критерия /'-Фишера
для проверки ненаправленных альтернатив 366
Приложение 9. Критические значения критерия [/-Манна-Уитни 368
Приложение 10. Критические значения критерия Г-Вилкоксона 370
Приложение 11. Критические значения критерия С знаков 371
Приложение 12. Критические значения критерия //-Краскала-Уоллеса 372
Приложение 13. Критические значения критерия %2-Фридмана 375
Англо-русский терминологический ловарь 377
Предметный указатель 382
Дополнительная литература 389
ПРЕДИСЛОВИЕ
Среди других наук психологию отличает интригующее разнообразие точек зрения на перспективы ее развития. Оставляю другим увлекательные возможности выражать свои сомнения и жонглировать словами насей счет. При написании этой книги я следовал вполне традиционному убеждению: психология в любых ее приложениях — и практических, и теоретических, может развиваться только на основе количественных исследований, связывающих теорию и практику с фактами.
Исследование в любой области, в том числе и в психологии, предполагает получение результатов — обычно в виде чисел. Однако просто собрать данные недостаточно. Даже объективно и корректно собранные данные ничего не говорят. Исследователю необходимо умение организовать их, обработать и проинтерпретировать, что невозможно без применения математических методов. Конечно, можно сослаться на наличие современных компьютерных программ, применение которых сейчас становится нормой для исследователя. Но любая программа обработки данных переводит один набор чисел в другой набор чисел. При этом предлагается богатый набор способов такого преобразования, замечательным образом расширяющий возможности анализа данных. И для использования этих возможностей психолог должен уметь: а) организовать исследование так, чтобы его результаты были доступны обработке в соответствии с проблемами исследования; б) правильно выбрать метод обработки; в) содержательно интерпретировать результаты обработки. Эти умения не заменят ни компьютерная программа, ни «живой» математик — ее создатель2. Таким образом, применение математики как общенаучного метода, наряду с экспериментом, неизбежно приобретает в психологии свои особенности, связанные со спецификой предмета3. Неотъемлемой частью подготовки полноценного специалиста-психолога является изучение не только экспериментальной психологии, но и математических методов психологического исследования.
Стиль книги выбран с учетом того, что математические методы обычно вызывают большие трудности при изучении (и преподавании). Студенты (и не только они) часто сомневаются в необходимости изучения математических методов и испытывают страх при мысли о неизбежной перспективе их применения. Поэтому при изложении материала основное внимание уделяется практическим проблемам выбора метода и особенностям интерпретации получаемых результатов. При этом я не стремлюсь к абсолютной математической строгости и доказательности положений, свойственным математическим изданиям. Необходимые для понимания математические основы даются скорее на интуитивном и неформальном уровне — без детального изложения математического обоснования и выводов формул, которые могут вызвать негативные переживания читателя, не обладающего основательной математической подготовкой. Введение математических терминов сопровождается простыми примерами, а теоретические и математические объяснения даются на элементарном уровне. Основные термины в тексте выделены.
Жанр книги по первоначальному замыслу — учебное пособие для студентов факультета психологии. Но в процессе работы над книгой источником идей являлась не только практика преподавания, но и опыт участия в многочисленных исследованиях в роли руководителя или консультанта. В итоге появились основания надеяться, что книга станет не только учебником для студентов, но будет полезна для широкого круга исследователей — как справочник и практическое руководство по анализу и интерпретации данных. Справочному назначению книги способствует предметный указатель и англо-русский терминологический словарь, а практическое руководство воплощено в пошаговых инструкциях по применению каждого из методов.
Назначение книги — формирование умений самостоятельно анализировать и, главное, интерпретировать эмпирические данные — результаты исследований. Как пишет Г. В. Суходольский: «В психологии следует различать и уметь выполнять четыре вида интерпретаций: психолого-психологические, психолого-математические, математико-математические и (обратные) мате- матико-психологические»1. Психолого-математическая интерпретация заключается в математической идентификации исследовательской ситуации, которая сводится к выбору методов анализа данных. Решению этой проблемы способствуют предлагаемые классификации математических методов (статистического вывода и многомерных методов). Их особенность заключается в том, что исходным основанием для выбора адекватного метода (и его альтернатив) является специфика исследовательской ситуации, а не математическая специфика метода. Изложение каждого метода сопровождается обсуждением границ его применения и возможных альтернатив. Математи- ко-математической интерпретации соответствуют вычисления: переход при помощи выбранного метода от длинной исходной последовательности чисел к более короткому их набору — результатам обработки. Вычислительному аспекту в книге уделено особое внимание — чтобы читатель смог самостоятельно произвести все необходимые расчеты. При описании каждого метода в общих чертах объясняются его математические основы, демонстрируются примеры применения и, главное, предлагается пошаговый алгоритм вычислений: для обработки «вручную» (если это возможно) и с помощью компьютера. Математико-психологическая интерпретация (допустимая и возможная содержательная интерпретация числовых результатов) находится в центре внимания при рассмотрении любого метода. Примерно половина содержания книги — это обсуждение вопроса: «Что можно сказать по поводу вычисленных показателей?». Все аспекты интерпретации иллюстрированы многочисленными примерами. При этом наряду с реальными случаями чаще используются вымышленные данные и примеры — для наглядности и для того, чтобы избавиться от множества второстепенных деталей, неизбежно сопровождающих реальные исследования.
Структура книги соответствует стремлению представить множество математических методов в виде упорядоченной, логически и иерархически взаимосвязанной системы. Во вступлении дано общее описание этой системы и ее частей (модели измерения, описания и статистического вывода). Основной материал книги изложен в трех частях. В первой части даны элементарные основы применения математических методов. Ее назначение — подготовка читателя к восприятию основного материала книги. Этому способствуют задачи и упражнения в конце глав. Вторая часть включает в себя детальное описание основных методов статистического вывода. Их изложение предваряется классификацией, которая позволяет выбрать метод в зависимости от исследовательской ситуации — от исходных данных и задач исследования. При изложении каждого метода особое внимание уделяется границам его применения, возможным альтернативам, технике вычислений («вручную» и на компьютере), особенностям интерпретации результатов. Третья часть содержит описание самых распространенных многомерных методов. Применение этих методов возможно только с использованием специальных компьютерных программ. Поэтому их математические основы и порядок вычислений даются лишь в самых общих чертах, а основное внимание уделяется назначению, содержательной интерпретации результатов и, конечно, компьютерной обработке.
Рекомендации читателю зависят от его подготовленности и намерений.
Абитуриенту. Прочитайте «Методологическое введение: психология и математика». Вы все еще желаете поступать на факультет психологии? Если да, то положите эту книгу в доступное место: вам все равно не избежать ее внимательного и неоднократного чтения, будучи студентом. Если нет — найдите 32 забавные картинки в книжке и подумайте, что бы они могли значить.
Студенту. Смело приступайте к чтению с самого начала. Ничего не бойтесь: математики в общеобразовательном ее понимании в этой книги совсем мало. Внимательно читайте примеры и придумывайте свои. Выполняйте задания и упражнения. Приступая к чтению второй и третьей частей: обратитесь к преподавателю, ведущему практические занятия, чтобы он снабдил вас данными для обработки («вручную» и на компьютере). Самостоятельно примените к этим данным каждый из методов. Затем — придумывайте гипотезы, организуйте исследования, обрабатывайте свои данные и интерпретируйте результаты: это интересно! А если по ходу дела возникнут вопросы — вам поможет предметный указатель в конце книги.
Исследователю. Освежите в памяти основы: пролистайте первую часть (обратите внимание на главу 3 — о табличном представлении исходных данных). Внимательно изучите классификацию методов статистического вывода (глава 8) и классификацию многомерных методов (глава 14). Если исследование (сбор данных) только в перспективе, то планируйте его так, чтобы исходные данные позволяли проверить гипотезы вашего исследования. Если данные уже собраны, то с помощью классификаций выберите подходящий метод и приступайте к его изучению: прочитайте соответствующую главу, внимательно изучите требования к исходным данным, ограничения и пример с пошаговым применением метода. Введите данные в компьютер и убедитесь, что их вид допускает применение метода. Найдите в конце главы с описанием метода раздел «Обработка на компьютере» и следуйте инструкциям. Результаты интерпретируйте по аналогии с примерами. Полезно воспользоваться альтернативными методами и сравнить полученные с их помощью результаты. Если встречаются непонятные термины — обращайтесь к предметному указателю.
Научному руководителю. Сначала просто пролистайте книгу, обратив внимание на главы 8 и 14: вот ведь, оказывается, как велико многообразие доступных способов организации исследования! Затем отдайте эту книгу своему подопечному и помогите ему сформулировать исследовательские гипотезы, которые действительно представляют интерес и доступны проверке. Вам эта книга пригодится потом, когда вы будете оценивать реалистичность исследовательского проекта и далее, при проверке адекватности методов обработки данных и корректности соответствующих выводов.
Убежденному стороннику гуманитарного подхода. Прочитайте «Методологическое вступление...», просмотрите по 1—2 главы из начала каждой части. Я очень надеюсь, что вы поймете: вашему подходу нисколько не противоречит применение количественных методов, которые действительно могут повысить качество и убедительность результатов «качественных» исследований!
Чего нет в этой книге. В этой книге вы не найдете методов анализа результатов «мысленных экспериментов» или «качественных исследований», древнекитайской классификации животных и прочих забавных вещей. А если серьезно, то в книге специально почти не обсуждается начальный этап организации и планирования исследования: это предмет экспериментальной психологии, который соотносится с психолого-психологической интерпретацией (по Г. В. Суходольскому). Имеется в виду то, что называется операционали- зацией понятий, — процедура исследования, устанавливающая соответствие между тем, что изучается, и тем, как изучается (она является относительно независимой от особенностей применения математических методов)4. Между тем, необходимо помнить, что качество любого исследования определяется прежде всего соответствием исходных данных той реальности, которая является предметом изучения. Если исследователь понимает, какое отношение имеют его данные к действительности (что они отражают), если он уверен в соответствии данных тому, что изучается и способен это обосновать, то ... Ответы на остальные вопросы исследования, я надеюсь, вы найдете в этой книге.
Я буду искренне признателен всем, кто сможет прислать свои предложения, пожелания, и главное — критические замечания по поводу этой книги.
Успехов!
А.Д.Н. а<Й1@ап2806.$рЬ.е<1и
ПСИХОЛОГИЯ И МАТЕМАТИКА
Более 200 лет назад великий И. Кант со свойственной ему убедительностью обосновывал несостоятельность психологии как науки исходя из того, что психические явления не поддаются измерению, а следовательно, к ним не применимы математические методы. Его соотечественник И. Гербарт противопоставил позиции И. Канта свою точку зрения в книге с названием «Психология как наука, заново обоснованная на опыте, метафизике и математике» (1824—1825). В ней он выражает свое мнение о связи психологии и математики: «Всякая теория, которая желает быть согласованной с опытом, прежде всего должна быть продолжена до тех пор, пока не примет количественных определений, которые являются в опыте или лежат в его основании. Не достигнув этого пункта, она висит в воздухе, подвергаясь всякому ветру сомнений и будучи неспособной вступить в связь с другими уже окрепшими воззрениями»'. Идеи И. Гер- барта к концу XIX столетия воплощаются в жизнь отцами-основателями экспериментальной психологии. С тех пор возможность применения математических методов в психологии перестает вызывать сомнения. Но вопрос о необходимости их применения до сих пор вызывает дискуссии. Между тем проблема может быть решена признанием того, что психология — это и наука и искусство. Действительно, искусству практического консультирования или терапии вряд ли необходимо математическое обеспечение. Другое дело область познания, в том числе — того, что лежит в основе различных практических приемов. И здесь уже не достаточно обыденного понимания на уровне здравого смысла, необходим особый инструмент — научный метод, опирающийся на «количественные определения». Почему научное познание не довольствуется здравым смыслом, зачем необходимы математические методы?
Значение математических методов можно понять, сопоставляя обыденное и научное познание. На уровне обыденного познания действительности основным инструментом является здравый смысл. Результат познания — наше мнение (частное, субъективное). Мнение, или точка зрения по поводу той или иной проблемы, необходимо нам для прогноза или интерпретации грядущих реальных событий. Если прогнозы или интерпретации состоятельны, мы укрепляемся в своем мнении, если нет — мы вновь обращаемся к здравому смыслу и корректируем свое мнение, и т. д. Таким образом, продукт обыденного познания — мнение — прежде всего характеризуется как частное, субъективное. И все мы хорошо знаем, насколько тяжело бывает переубедить другого человека или отстоять свое мнение. Произведение искусства — это тоже продукт обыденного познания, мнение творца, облеченное в специфическую форму. Эстетические переживания способствуют восприятию и принятию нами авторского мнения. Таким образом, обыденное познание, его продукт — мнение, его инструмент — здравый смысл лежат в основе наших представлений о действительности. А само понятие «обыденное» приобретает смысл в противовес альтернативному — «научному» познанию.
Научное познание по своей конечной цели — совершенству прогнозов и интерпретаций реальных событий — принципиально не отличается от обыденного познания. Более того, научное познание не отменяет и не заменяет обыденного, но добавляет кое-что для совершенствования его результатов — знаний и прогнозов. Наука стремится выйти за пределы частного мнения, сделать знания общезначимыми. В стремлении к общезначимости ученый обосновывает свое мнение эмпирически, при помощи принятых в науке процедур,, возводя свое мнение в ранг научной теории. При этом предполагается (и практика это доказывает), что научное познание гарантирует нам более совершенные предсказания и интерпретации действительности.
Научное познание добавляет к инструменту обыденного познания — здравому смыслу — ряд дополнительных процедур, обеспечивая не только убедительность, но и объективность получаемых знаний. Рассмотрим их подробнее. Первый шаг любого (научного) исследования — выражение сомнения в истинности мнения, формулировка мнения как гипотезы — утверждения, допускающего проверку на фактах. Например, я могу поставить под сомнение свою точку зрения о том, что женщины более искусны в общении, чем мужчины. Но чтобы сделать гипотезу доступной проверке при помощи эмпирики, необходимо представить ее в форме математической модели, согласованной со способом регистрации наблюдений. Таким образом, гипотеза содержит указание на математическую модель, форма которой уточняется в соответствии с тем, как будет измерено то, что нас интересует. Моя содержательная гипотеза о большей искусности женщин в общении может быть представлена в форме математической модели: Мм <МЖ (мужчины в среднем менее искусны в общении, чем женщины) или/м </ж (среди мужчин искусные в общении встречаются реже, чем среди женщин). В первом случае предполагается, что я могу вычислить среднюю «искусность в общении» для женщин и для мужчин по результатам ее количественного измерения при помощи некоторой специальной шкалы. Во втором случае достаточно определить частоту встречаемости «искусных в общении» среди мужчин и женщин.
Итак, научное познание начинается с нуждающегося в эмпирической проверке утверждения — гипотезы. Проверка гипотезы предполагает измерение интересующего исследователя явления и обобщение результатов измерения в виде, позволяющем сделать вывод в отношении гипотезы. Измерение и описание предполагает применение различных, хоть и взаимосвязанных, математических моделей и соответствующих им процедур. В процессе измерения мы представляем реальные события, явления, свойства в виде чисел, в соответствии с принятой математической моделью измерения. Например, приписываем испытуемому число, обозначающее его пол (1 — мужской, 2 — женский), или ранг, соответствующий успешности выполнения задания (1 — лучше всех, 2 — второе место, и т. д.). Затем множество подобных результатов измерения мы должны представить в виде, доступном интерпретации с точки зрения выдвинутой гипотезы. Для этого используются математические модели описания для обобщения результатов измерения: менее сложные (частоты, средние значения и др.) или более сложные (корреляционный или факторный анализ и др.).
Помимо описания и измерения, существует и третье направление использования математики в психологии — статистическая проверка гипотез. Последнее направление тесно связано с общенаучными канонами экспериментального метода, основанными на статистическом выводе. Отдавая дань истории, отметим, что одним из первых примеров испытания статистической гипотезы была работа Дж. Арбутнота «Довод в пользу божественного провидения, выведенный из постоянной регулярности, наблюдаемой в рождении обо- их полов» (1710-1712 гг.)5. Основываясь на том факте, что втечение 82летпод- ряд мальчиков каждый год рождалось больше, чем девочек, автор показал, что эти данные опровергают гипотезу о равновероятном рождении мужчин и женщин. Если вероятность рождения мальчика точно равнаО,5, то вероятность того, что на протяжении 82 лет подряд мальчиков будет рождаться больше, чем девочек, равна ('/2)82, т. е. она очень мала. По мнению Арбутнота, данный факт — результат вмешательства божественного Провидения, поскольку жизнь муж- чипы находится в большей опасности, чем жизнь женщины.
Общая логика статистической проверки гипотез, или определения статистической достоверности эмпирического результата, сохранилась в общих чертах и до настоящего времени. Возвращаясь к проверке моего мнения о женской искусности в общении, предположим, что я измерил ее при помощи 10-балльной шкалы у 32 женщин и 28 мужчин. Среднее значение для мужчин оказалось равным Л/м = 4,6, а для женщин Мж = 5,1. Здравый смысл мне подсказывает, что факт подтверждает мое мнение. Однако тут же возникает сомнение: достаточно ли столь малого различия в средних значениях, чтобы утверждать, что вообще все женщины в среднем более искусны в общении, чем все мужчины? Какова вероятность, что это все-таки не так? Для ответа на этот вопрос мне и необходимо обратиться к моделям статистического вывода. Если различия статистически значимы, то мое мнение приобретает статус научно обоснованного утверждения.
Таким образом, научное познание, в дополнение к здравому смыслу (но не вместо него!), обязательно предполагает применение математических методов, которые мы представили в виде трех классов моделей: измерения, описания и статистического вывода. Соотношение этих моделей в структуре познания схематично представлено на рис. 1.
Научное познание начинается с формулировки гипотезы — следствия теории или частного мнения по поводу некоторого аспекта реальности. Гипотеза
I /
Обыденное познание
Часть I
ОСНОВЫ ИЗМЕРЕНИЯ И КОЛИЧЕСТВЕННОГО ОПИСАНИЯ ДАННЫХ
Глава 1
ГЕНЕРАЛЬНАЯ СОВОКУПНОСТЬ И ВЫБОРКА
Исследование обычно начинается с некоторого предположения, требующего проверки с привлечением фактов. Это предположение — гипотеза — формулируется в отношении связи явлений или свойств в некоторой совокупности объектов.
ПРИМЕР
Исследователь может предположить, что женщины в среднем более тревожны, чем мужчины (тревожность связана с полом). Ил и что просмотр телепередач, содержащих сцены насилия, повышает агрессивность подростков. В первом случае исследователя интересуют такие явления, как тревожность и пол, а во втором — агрессивность и просмотр телепередач. Объектами-носителями свойств в первом случае будут все мужчины и женщины, а во втором — все подростки.
Для проверки подобных предположений на фактах необходимо измерить соответствующие свойства у их носителей. Но невозможно измерить тревожность у всех женщин и мужчин, как невозможно измерить агрессивность у всех подростков. Поэтому при проведении исследования ограничиваются лишь относительно небольшой группой представителей соответствующих совокупностей людей.
Генеральная совокупность — это все множество объектов, в отношении которого формулируется исследовательская гипотеза.
В первом примере такими генеральными совокупностями являются все мужчины и все женщины. Во втором — все подростки, которые смотрят телепередачи, содержащие сцены насилия. Генеральные совокупности, в отношении которых исследователь собирается сделать выводы по результатам исследования, могут быть по численности и более скромными.
ПРИМЕР
При изучении профессионального самоопределения студентов-выпускников некоторого факультета в конкретном вузе генеральная совокупность, казалось бы, весьма невелика и допускает сплошное исследование. Но исследователь обычно
надеется, что выводы исследования будут справедливы не только в отношении выпускников этого, но и последующих годов.
Таким образом, генеральная совокупность — это хотя и не бесконечное по численности, но, как правило, недоступное для сплошного исследования множество потенциальных испытуемых.
Выборка — это ограниченная по численности группа объектов (в психологии — испытуемых, респондентов), специально отбираемая из генеральной совокупности для изучения ее свойств. Соответственно, изучение на выборке свойств генеральной совокупности называется выборочным исследованием. Практически все психологические исследования являются выборочными, а их выводы распространяются на генеральные совокупности.
Таким образом, после того, как сформулирована гипотеза и определены соответствующие генеральные совокупности, перед исследователем возникает проблема организации выборки. Выборка должна быть такой, чтобы была обоснована генерализация выводов выборочного исследования — обобщение, распространение их на генеральную совокупность. Основные критерии обоснованности выводов исследования — это репрезентативность выборки и статистическая достоверность (эмпирических) результатов.
Репрезентативность выборки — иными словами, ее представительность — это способность выборки представлять изучаемые явления достаточно полно—с точки зрения их изменчивости в генеральной совокупности.
Конечно, полное представление об изучаемом явлении, во всем его диапазоне и нюансах изменчивости, может дать только генеральная совокупность. Поэтому репрезентативность всегда ограничена в той мере, в какой ограничена выборка. И именно репрезентативность выборки является основным критерием при определении границ генерализации выводов исследования. Тем не менее, существуют приемы, позволяющие получить достаточную для исследователя репрезентативность выборки.
Первый и основной прием — это простой случайный (рандомизированный) отбор. Он предполагает обеспечение таких условий, чтобы каждый член гене-
ральной совокупности имел равные с другими шансы попасть в выборку. Случайный отбор обеспечивает возможность попадания в выборку самых разных представителей генеральной совокупности. При этом принимаются специальные меры, исключающие появление какой-либо закономерности при отборе. И это позволяет надеяться на то, что в конечном итоге в выборке изучаемое свойство будет представлено если и не во всем, то в максимально возможном его многообразии.
ПРИМЕР
Изучая агрессивность подростков, исследователь может случайным образом остановить свой выбор на 3 классах разных школ и затем случайным образом отобрать по 10 учащихся из каждого класса. Если же исследователь просит испытуемого пригласить на обследование своих друзей, он грубо нарушает принцип случайности отбора.
Второй способ обеспечения репрезентативности — это стратифицированный случайный отбор, или отбор по свойствам генеральной совокупности. Он предполагает предварительное определение тех качеств, которые могут влиять на изменчивость изучаемого свойства (это может быть пол, уровень дохода или образования и т. д.). Затем определяется процентное соотношение численности различающихся по этих качествам групп (страт) в генеральной совокупности и обеспечивается идентичное процентное соотношение соответствующих групп в выборке. Далее в каждую подгруппу выборки испытуемые подбираются по принципу простого случайного отбора.
ПРИМЕР
Исследователь резонно может предположить, что мальчики и девочки различаются как по агрессивности, так и по восприимчивости демонстрируемых по телевидению сцен насилия. Если исследователь планирует обобщить результат исследования влияния телевидения на агрессивность всех подростков, то, руководствуясь социально-демографическими данными, он должен обеспечить идентичное генеральной совокупности соотношение мальчиков и девочек в выборке.
Статистическая достоверность, или статистическая значимость, результатов исследования определяется при помощи методов статистического вывода. Эти методы мы будем подробно рассматривать во второй части этой книги. Сейчас лишь отметим, что они предъявляют определенные требования к численности, или объему выборки.
К сожалению, строгих рекомендаций по предварительному определению требуемого объема выборки не существует. Более того, ответ на вопрос о необходимой и достаточной ее численности исследователь обычно получает слишком поздно — только после анализа данных уже обследованной выборки. Тем не менее, можно сформулировать наиболее общие рекомендации: □ Наибольший объем выборки необходим при разработке диагностической методики — от 200 до 1000—2500 человек.
Зависимые и независимые выборки. Обычна ситуация исследования, когда интересующее исследователя свойство изучается на двух или более выборках с целью их дальнейшего сравнения. Эти выборки могут находиться в различных соотношениях — в зависимости от процедуры их организации. Независимые выборки характеризуются тем, что вероятность отбора любого испытуемого одной выборки не зависит от отбора любого из испытуемых другой выборки. Напротив, зависимые выборки характеризуются тем, что каждому испытуемому одной выборки поставлен в соответствие по определенному критерию испытуемый из другой выборки.
ПРИМЕР
Наиболее типичный пример зависимых выборок — повторное измерение свойства (свойств) на одной и той же выборке после воздействия (ситуация «до-после»), В этом случае выборки (одна — до, другая — после воздействия) зависимы в максимально возможной степени, так как они включают одних и тех же испытуемых. Могут быть и более слабые варианты зависимости. Например, мужья — одна выборка, их жены — другая выборка (при исследовании, например, их предпочтений). Или дети 5-7 лет — одна выборка, а их братья или сестры-близнецы — другая выборка.
В общем случае зависимые выборки предполагают попарный подбор испытуемых в сравниваемые выборки, а независимые выборки — независимый отбор испытуемых.
Следует отметить, что случаи «частично зависимых» (или «частично независимых») выборок недопустимы: это непредсказуемым образом нарушает их репрезентативность.
В заключение отметим, что можно выделить две парадигмы психологического исследования. Так называемая К-методология предполагает изучение изменчивости некоторого свойства (психологического) под влиянием некоторого воздействия, фактора либо другого свойства. Выборкой является множество испытуемых. Другой подход, (^-методология, предполагает исследование изменчивости субъекта (единичного) под влиянием различных стимулов (условий, ситуаций и т. д.). Ей соответствует ситуация, когда выборкой является множество стимулов.
Глава 2
ИЗМЕРЕНИЯ И ШКАЛЫ
ЧТО ТАКОЕ ИЗМЕРЕНИЕ
Любое эмпирическое научное исследование начинается с того, что исследователь фиксирует выраженность интересующего его свойства (или свойств) у объекта или объектов исследования, как правило при помощи чисел. Таким образом, следует различать объекты исследования (в психологии это чаще всего люди, испытуемые), их свойства (то, что интересует исследователя, составляет предмет изучения) и признаки, отражающие в числовой шкале выраженность свойств.
Измерение в терминах производимых исследователем операций — это приписывание объекту числа по определенному правилу. Это правило устанавливает соответствие между измеряемым свойством объекта и результатом измерения — признаком.
В обыденном сознании, как правило, нет необходимости разделять свойства вещей и их признаки: такие свойства предметов, как вес и длина, мы отождествляем, соответственно, с количеством граммов и сантиметров. Если нет необходимости в измерении, мы ограничиваемся сравнительными суждениями: этотчеловектревожный, а этот —нет, этот более сообразителен, чем другой, и т. д.
В научном исследовании нам исключительно важно отдавать себе отчет в том, что точность, с которой признак отражает измеряемое свойство, зависит от процедуры (операции) измерения.
ПРИМЕР
Мы можем разделить всех наших испытуемых на две группы по сообразительности: сообразительные и не очень. И далее приписать каждому испытуемому символ (например, 1 и 0) в зависимости от его принадлежности к той или другой группе. А можем упорядочить всех испытуемых по степени выраженности сообразительности, приписывая каждому его ранг, от самого сообразительного (1 ранг), самого сообразительного из оставшихся (2 ранг) и т. д. до последнего испытуемого. В каком из этих двух случаев измеренный признак будет точнее отражать различия между испытуемыми по измеряемому свойству, догадаться нетрудно.
В зависимости от того, какая операция лежит в основе измерения признака, выделяют так называемые измерительные шкалы. Они еще называются шкалами С. Стивенса, по имени ученого-психолога, который их предложил. Эти шкалы устанавливают определенные соотношения между свойствами чисел и измеряемым свойством объектов. Шкалы разделяют на метрические (если есть или может быть установлена единица измерения) и неметрические (если единицы измерения не могут быть установлены).
ИЗМЕРИТЕЛЬНЫЕ ШКАЛЫ
Номинативная шкала (неметрическая), или шкала наименований (номинальное измерение). В ее основе лежит процедура, обычно не ассоциируемая с измерением. Пользуясь определенным правилом, объекты группируются по различным классам так, чтобы внутри класса они были идентичны по измеряемому свойству. Каждому классу дается наименование и обозначение, обычно числовое. Затем каждому объекту присваивается соответствующее обозначение.
ПРИМЕРЫ
Примеры номинативных признаков: «пол» (1 — мужской, 0 — женский), «национальность» (1 — русский, 2 — белорус, 3 — украинец), «предпочтение домашних животных» (1 — собаки, 2 — кошки, 3 — крысы, 0 — никакие) и т. д. В последнем случае если одному испытуемому присвоена 1, а другому 2, то это обозначает только то, что у них разные предпочтения: у первого — собаки, у второго — кошки. Из того, что 1 < 2, нельзя делать вывод, что у второго предпочтение выражено больше, чем у первого, и т. д.
Заметим, что в этом случае мы учитываем только одно свойство чисел — то, что это разные символы. Остальные свойства чисел не учитываются. Привычные операции с числами — упорядочивание, сложение-вычитание, деление — при измерении в номинативной шкале теряют смысл. При сравнении объектов мы можем делать вывод только о том, принадлежат они к одному или разным классам, тождественны или нет по измеренному свойству. Несмотря на такие ограничения, номинативные шкалы широко используются в психологии, и к ним применимы специальные процедуры обработки и анализа данных.
Ранговая, или порядковая шкала (неметрическая) (как результат ранжирования). Как следует из названия, измерение в этой шкале предполагает приписывание объектам чисел в зависимости от степени выраженности измеряемого свойства.
ПРИМЕР
Мы можем ранжировать всех испытуемых по интересующему нас свойству на основе экспертной оценки или порезультатам выполнения некоторого задания и приписать каждому испытуемому его ранг. Или предложить испытуемым самим определить выраженность изучаемого свойства, пользуясь предложенной шкалой (5-, 7- или 10-балльной).
Существует множество способов получения измерения в порядковой шкале. Но суть остается общей: при сравнении испытуемых друг с другом мы можем сказать, больше или меньше выражено свойство, но не можем сказать, насколько больше или насколько меньше оно выражено, а уж тем более — во сколько раз больше или меньше. При измерении в ранговой шкале, таким образом, из всех свойств чисел учитывается то, что они разные, и то, что одно число больше, чем другое.
ПРИМЕР
Четверым бегунам присвоены ранги в соответствии с тем, кто раньше достиг «финиша» (ранг 1 — самый быстрый):
Бегун |
Ранг |
А |
1 |
В |
2 |
С |
3 |
В |
4 |
Основываясь только на этих данных, мы можем судить о том, кто раньше прибежал, а кто позже. Но мы не можем судить, насколько каждый из них пробежал быстрее или медленнее другого. Глядя на эти ранги, можно было бы предположить, что бегуны А и В различаются меньше, чем бегуны В и Б, так как 2—1 = 1, а 4—2 = 2. Однако такой вывод — следствие «пленяющей магии чисел»: бегун А мог быть тренированным спортсменом, пробежавшим дистанцию в 2 раза быстрее, чем бегуны В, С и Б — «увальни», пришедшие к «финишу» с минимальными различиями во времени.
Прм ранжировании «вручную», а не при помощи компьютера, следует иметь в виду два обстоятельства:
Интервальная шкала (метрическая). Это такое измерение, при котором числа отражают не только различия между объектами в уровне выраженности свойства (характеристика порядковой шкалы), но и то, насколько больше или меньше выражено свойство. Равным разностям между числами в этой шкале соответствуют равные разности в уровне выраженности измеренного свойства. Иначе говоря, измерение в этой шкале предполагает возможность применения единицы измерения {метрики). Объекту присваивается число единиц измерения, пропорциональное выраженности измеряемого свойства. Важная особенность интервальной шкалы — произвольность выбора нулевой точки: ноль вовсе не соответствует полному отсутствию измеряемого свойства. Произвольность выбора нулевой точки отсчета обозначает, что измерение в этой шкале не соответствует абсолютному количеству измеряемого свойства. Следовательно, применяя эту шкалу, мы можем судить, насколько больше или насколько меньше выражено свойство при сравнении объектов, но не можем судить о том, во сколько раз больше или меньше выражено свойство.
ПРИМЕР
Наиболее типичный пример измерения в интервальной шкале — температура по шкале Цельсия (°С). Важная особенность такого измерения заключается в том, что нулевая точка на шкале не соответствует полному отсутствию измеряемого свойства (О °С — это точка замерзания воды, но не отсутствия температуры, тепла). И если сегодня +5 °С, а вчера было + 10°С, то можно сказать, что сегодня на 5 градусов холоднее, но неверно утверждать, что сегодня холоднее в два раза.
Интервальные измерения широко используются в психологии. Примером могут являться тестовые шкалы, которые специально вводятся при обосновании равноинтервальности (метричности) тестовой шкалы (1() Векслера, стены, Г-шкала и т. д.).
Абсолютная шкала, или шкала отношений (метрическая). Измерение в этой шкале отличается от интервального только тем, что в ней устанавливается нулевая точка, соответствующая полному отсутствию выраженности измеряемого свойства.
ПРИМЕР
В отличие от температуры по Цельсию, температура по Кельвину представляет собой измерение в абсолютной шкале. Более привычные примеры измерения в этой шкале — это измерения роста, веса, времени выполнения задачи и т. д. Общим в этих примерах является применение единиц измерения и то, что нулевой точке соответствует полное отсутствие измеряемого свойства.
В силу абсолютности нулевой точки, при сравнении объектов мы можем сказать не только о том, насколько больше или меньше выражено свойство, но и о том, во сколько раз (на сколько процентов и т. д.) больше или меньше оно выражено. Измерив время решения задачи парой испытуемых, мы можем сказать не только о том, кто и на сколько секунд (минут) решил задачу быстрее, но и о том, во сколько раз (на сколько процентов) быстрее.
Следует отметить, что, несмотря на привычность и обыденность абсолютной шкалы, в психологии она используется не часто. Из редких примеров можно привести измерение времени реакции (обычно в миллисекундах) и измерение абсолютных порогов чувствительности (в физических единицах свойств стимула).
Перечисленные шкалы полезно характеризовать еще и по признаку их дифференцирующей способности (мощности). В этом отношении шкалы по мере возрастания мощности располагаются следующим образом: номинативная, ранговая, интервальная, абсолютная. Таким образом, неметрические шкалы заведомо менее мощные — они отражают меньше информации о различии объектов (испытуемых) по измеренному свойству, и, напротив, метрические шкалы более мощные, они лучше дифференцируют испытуемых. Поэтому, если у исследователя есть возможность выбора, следует применить более мощную шкалу. Другое дело, что чаще такого выбора нет, и приходится использовать доступную измерительную шкалу. Более того, часто исследователю даже трудно определить, какую шкалу он применяет.
КАК ОПРЕДЕЛИТЬ, В КАКОЙ ШКАЛЕ ИЗМЕРЕНО ЯВЛЕНИЕ
Определение того, в какой шкале измерено явление (представлен признак), — ключевой момент анализа данных: любой последующий шаг, выбор любого метода зависит именно от этого.
Обычно идентификация номинативной шкалы, ее дифференциация от ранговой, а тем более от метрической шкалы не вызывает особых проблем.
ПРИМЕР
Рассмотрим вопрос анкеты, для ответа на который испытуемые выбирают один из предложенных вариантов: «Насколько Вы уверены в своих силах...
Если исследователя интересует, в какой степени испытуемые уверены или не уверены в своих силах, то логично предполагать, что признак представлен в ранговой шкале. Если же исследователя интересует то, как распределились ответы по вариантам или чем характеризуется каждая из 3 соответствующих групп, то разумнее рассматривать этот признак как номинативный.
Значительно сложнее определить различие между порядковой и метрической шкалами. Проблема связана с тем, что измерения в психологии, как правило, косвенные. Непосредственно мы измеряем некоторые наблюдаемые явления или события: количество ответов на вопросы, или заданий, решенных за отведенное время, или время решения набора заданий и т. д. Но при этом выносим суждения о некотором скрытом, латентном свойстве, недоступном прямому наблюдению: об агрессивности, общительности, способности и т. д.
Количество заданий, решенных за отведенное время, — это, конечно, измерение в метрической шкале. Но само по себе это количество нас интересует лишь в той мере, в какой оно отражает некоторую изучаемую нами способность. Соответствуют ли равные разности решенных задач равным разностям выраженности изучаемого свойства (способности)? Если ответ «да» — шкала метрическая (интервальная), если «нет» — шкала порядковая.
Конечно, проще всего в подобных ситуациях согласиться с тем, что признак представлен в порядковой шкале. Но при этом мы существенно ограничиваем себя в выборе методов последующего анализа. Более того, переход к менее мощной шкале обрекает нас на утрату части столь ценной для нас эмпирической информации об индивидуальных различиях испытуемых. Следствием этого может являться падение статистической достоверности результатов исследования. Поэтому исследователь стремится все же найти свидетельств! того, что используемая шкала — более мощная, метрическая. То, какие обоснования метричности шкалы обычно учитываются, мы рассмотрим несколько позднее — в разделе о нормальном распределении.
Задачи и упражнения
Определите, в какой шкале представлено каждое из приведенных ниже измерений: наименований, порядка, интервалов, абсолютной.
Глава 3
ТАБЛИЦЫ И ГРАФИКИ
ТАБЛИЦА ИСХОДНЫХ ДАННЫХ
Обычно в ходе исследования интересующий исследователя признак измеряется не у одного-двух, а у множества объектов (испытуемых). Кроме того, каждый объект характеризуется не одним, а целым рядом признаков, измеренных в разных шкалах. Одни признаки представлены в номинативной шкале и указывают на принадлежность испытуемых к той или иной группе (пол, профессия, контрольная или экспериментальная группа и т. д.). Другие признаки могут быть представлены в порядковой или метрической шкале. Поэтому результаты измерения для дальнейшего анализа чаще всего представляют в виде таблицы исходных данных. Каждая строка такой таблицы обычно соответствует одному объекту, а каждый столбец — одному измеренному признаку. Таким образом, исходной формой представления данных является таблица типа «объект — признак». В ходе дальнейшего анализа каждый признак выступает в качестве переменной величины, или просто — переменной, значения которой меняются от объекта к объекту.
ПРИМЕР
Предположим, психолога интересует социальная сплоченность двух параллельных классов, различие в этом отношении мальчиков и девочек и эффективность проведенного в одном из этих классов социально-психологического тренинга. Для измерения социальной сплоченности исследователь задавал каждому ученику до и после тренинга один и тот же вопрос: «Как часто твое мнение совпадает с мнением твоих одноклассников?». Для ответа ученикам предлагалось выбрать один из пяти вариантов: 1 — никогда, 2 — редко, 3 — затрудняюсь ответить, 4 — часто, 5 — всегда. Исходные данные исследования представлены в табл. 3.1. Общая численность всех испытуемых Ы= 60. Численность класса, с которым проводился тренинг, N^ = 30; численность другого класса — = 30. Первые два столбца таблицы — порядковый номер испытуемого (№) и Ф. И. О. Далее следуют четыре столбца, соответствующие четырем интересующим исследователя признакам: хи— пол (номинативный), Хц— класс (номинативный),
Таблица 3.1
Таблица исходных данных
1 |
2 |
3 |
4 |
5 |
|
№ |
Ф.И.О. |
Пол |
Класс |
Самооценка |
|
До |
После |
||||
1 |
2 |
3 |
4 |
||
1 |
Иванов И. О. |
1 |
0 |
5 |
5 |
2 |
Васильев К. А. |
1 |
1 |
3 |
4 |
3 |
Розова М. И. |
0 |
1 |
2 |
3 |
4 |
Краснова О. С. |
0 |
0 |
3 |
3 |
5 |
Цветов С. Т. |
1 |
0 |
1 |
3 |
6 |
Лозовая Е. И. |
0 |
1 |
4 |
4 |
/ |
хи |
хь |
*4/ |
||
60 |
Петров Е. М. |
1 |
1 |
3 |
3 |
Ху — самооценка до тренинга (порядковый),
х4( — самооценка после тренинга (порядковый),
где / — текущий номер испытуемого (меняется от 1 до 60).
Обратите внимание на то, что нумерация испытуемых в таблице исходных данных (табл. 3.1) — сквозная, вне зависимости от принадлежности к той или иной группе. То, к какой группе принадлежит испытуемый, определяется значением соответствующей номинативной переменной (пол, класс).
ТАБЛИЦЫ И ГРАФИКИ РАСПРЕДЕЛЕНИЯ ЧАСТОТ
Как правило, анализ данных начинается с изучения того, как часто встречаются те или иные значения интересующего исследователя признака (переменной) в имеющемся множестве наблюдений. Для этого строятся таблицы и графики распределения частот. Нередко они являются основой для получения ценных содержательных выводов исследования.
Если признак принимает всего лишь несколько возможных значений (до 10-15), то таблица распределения частот показывает частоту встречаемости каждого значения признака. Если указывается, сколько раз встречается каждое значение признака, то это — таблица абсолютных частот распределения, если указывается доля наблюдений, приходящихся на то или иное значение признака, то говорят об относительных частотах распределения.
ПРИМЕР
Предположим, исследователя в нашем примере (табл. 3.1) интересует, как распределяются ответы всех учеников до проведения тренинга. Для этого он подсчитает частоту встречаемости каждого из ответов и составит таблицу распределения частот (табл. 3.2). Таблица показывает, что чаще встречаются средние значения выраженности признака и реже — крайние значения.
Таблица 3.2
Таблица распределения частот
Значение |
/а (абсолютная частота) |
/о (относительная частота) |
Усит (накопленная частота) |
5 |
3 |
0,05 |
1,00 |
4 |
12 |
0,20 |
0,95 |
3 |
21 |
0,35 |
0,75 |
2 |
15 |
0,25 |
0,40 |
1 |
9 |
0,15 |
0,15 |
Е (сумма): |
60 |
1 |
— |
Абсолютная и относительная частоты связаны соотношением:
(3.1)
где /а — абсолютная частота некоторого значения признака, N — число наблюдений, /0 — относительная частота этого значения признака. Очевидно, что сумма всех абсолютных частот равна числу наблюдений — А^, а сумма всех относительных частот равна 1. Нередко относительная частота применяется для оценки вероятности встречаемости значения.
Во многих случаях признак может принимать множество различных значений, например, если мы измеряем время решения тестовой задачи. В этом случае о распределении признака позволяет судить таблица сгруппированных частот, в которых частоты группируются по разрядам или интервалам значений признака.
ПРИМЕР
Предположим, в группе испытуемых численностью 40 человек измерено время решения тестовой задачи. Максимальное время составило 67 секунд, минимальное — 32 секунды. Построение таблицы распределения частот в этом случае производится поэтапно.
Построение таблицы сгруппированных частот.
Табл. 3.3 содержит результат подсчета сгруппированных таким образом частот по разрядам (интервалам) значений признака — времени решения тестовой задачи.
Таблица 3.3 Таблица частот, сгруппированных по интервалам времени решения тестовой задачи
Интервал времени,с |
(абсолютная частота) |
(относительная частота) |
3сит (накопленная частота) |
30-34 |
1 |
0,025 |
0,025 |
35-39 |
2 |
0,050 |
0,075 |
40-44 |
5 |
0,125 |
0,200 |
45-49 |
8 |
0,200 |
0,400 |
50-54 |
10 |
0,250 |
0,650 |
55-59 |
8 |
0,200 |
0,850 |
60-64 |
4 |
0,100 |
0,950 |
65-69 |
2 |
0,050 |
1,000 |
X (сумма): |
40 |
1,000 |
— |
Еще одной разновидностью таблиц распределения являются таблицы распределения накопленных частот. Они показывают, как накапливаются частоты по мере возрастания значений признака. Напротив каждого значения (интервала) указывается сумма частот встречаемости всех тех наблюдений, величина признака у которых не превышает данного значения (меньше верхней границы данного интервала). Накопленные частоты содержатся в правых столбцах табл. 3.2 и 3.3.
Для более наглядного представления строится график распределения частот или график накопленных частот — гистограмма или сглаженная кривая распределения.
20- 15-
10-
5-
о-1
1 2 3 4 5
Рис. 3.1. Гистограмма распределения частот самооценки (по данным табл. 3.2)
Гистограмма распределения частот — это столбиковая диаграмма, каждый столбец которой опирается на конкретное значение признака или разрядный интервал (для сгруппированных частот). Высота столбика пропорциональна частоте встречаемости соответствующего значения. На рис. 3.1 изображена гистограмма распределения частот для примера из табл. 3.2.
Гистограмма накопленных частот отличается от гистограммы распределения тем, что высота каждого столбика пропорциональна частоте, накопленной к данному значению (интервалу). На рис. 3.2 изображена гистограмма накопленных частот для данных табл. 3.2.
1 -]
0,9- 0,8- 0,7- 0,6- 0,5-
0,4-
0,3 - 0,2- 0,1 -
0-1
1 2 3 4 5
Рис. 3.2. Гистограмма накопленных относительных частот самооценки (поданным табл. 3.2)
Построение полигона распределения частот напоминает построение гистограммы. В гистограмме вершина каждого столбца, соответствующая частоте встречаемости данного значения (интервала) признака, — отрезок прямой. А для полигона отмечается точка, соответствующая середине этого отрезка. Далее все точки соединяются ломаной линией (рис. 3.3).
Вместо гистограммы или полигона часто изображают сглаженную кривую распределения частот. На рис. 3.4 изображена гистограмма распределения для примера из табл. 3.3 (столбики) и сглаженная кривая того же распределения частот.
Рис. 3.3. Полигон распределения частот самооценки (поданным табл. 3.2)
Рис. 3.4. Гистограмма и сглаженный график распределения частот времени решения тестовой задачи (по данным табл. 3.3)
ПРИМЕНЕНИЕ ТАБЛИЦ И ГРАФИКОВ РАСПРЕДЕЛЕНИЯ ЧАСТОТ
Таблицы и графики распределения частот дают важную предварительную информацию о форме распределения признака: о том, какие значения встречаются реже, а какие чаще, насколько выражена изменчивость признака. Обычно выделяют следующие типичные формы распределения. Равномерное распределение — когда все значения встречаются одинаково (или почти одинаково) часто. Симметричное распределение — когда одинаково часто встречаются крайние значения. Нормальное распределение — симметричное распределение, у которого крайние значения встречаются редко и частота постепенно повышается от крайних к серединным значениям признака. Асимметричные распределения — левосторонние (с преобладанием частот малых значений), правосторонние (с преобладанием частот больших значений). К понятию формы распределения мы еще не раз вернемся, прежде всего — в связи с использованием в психологии нормального распределения как особого эталона — стандарта.
Уже сами по себе таблицы и графики распределения признака позволяют делать некоторые содержательные выводы при сравнении групп испытуемых между собой. Сравнивая распределения, мы можем не только судить о том, какие значения встречаются чаще в той или иной группе, но и сравнивать группы по степени выраженности индивидуальных различий — изменчивости по данному признаку.
Таблицы и графики накопленных частот позволяют быстро получить дополнительную информацию о том, сколько испытуемых (или какая их доля) имеют выраженность признака не выше определенного значения.
Следует отметить, что для сравнения групп разной численности следует использовать таблицы и графики относительных частот.
ПРИМЕР
В группе юношей и группе девушек измерена тревожность при помощи тестовой шкалы. По результатам измерений построены сглаженные графики распределения относительных частот отдельно для юношей и девушек (рис. 3.5). Сравнивая графики, можно сделать содержательные выводы как по уровню выраженности, так и по индивидуальной изменчивости тревожности у юношей и девушек. Так, юноши в среднем менее тревожны, чем девушки. Но индивидуальные различия — изменчивость — по тревожности выше у юношей, чем у девушек: девушки в этом отношении более похожи друг на друга.
Го- Ул
/
Тревожность
Рис. 3.5. Графики распределения относительных частот тревожности юношей (1)
и девушек (2)
ТАБЛИЦЫ СОПРЯЖЕННОСТИ НОМИНАТИВНЫХ ПРИЗНАКОВ
Таблицы сопряженности, или кросстабуляции — это таблицы совместного распределения частот двух и более номинативных признаков, измеренных на одной группе объектов. Эти таблицы позволяют сопоставить два или более распределения. Столбцы такой таблицы соответствуют категориям (градациям) одного номинативного признака, а строки — категориям (градациям) другого номинативного признака. Если номинативные признаки внесены в электронную таблицу исходных данных, то таблицу сопряженности можно построить, воспользовавшись функцией «Кросстабуляция» одного из стандартных статистических пакетов (например, СгохйаЬз — в 8Р88).
ПРИМЕР
Водном из исследований изучалась склонность людей передавать плохие или хорошие новости. На ветровых стеклах автомобилей, припаркованных у почтовых ящиков, были оставлены почтовые открытки с указанием адресата (всего — 180 шт.), содержащие либо нейтральные (хорошие), либо плохие новости. В качестве плохой новости использовалось сообщение о супружеской неверности супруга (супруги) — получателя сообщения. В процессе исследования подсчиты- валось количество отправленных открыток, дошедших до указанного адреса. Результаты представлены в табл. 3.4 — в виде таблицы сопряженности частот двух номинативных признаков: новость (две градации: плохая — хорошая), сообщение (две градации: отправлено — не отправлено). Как видите, таблица дает основание делать вывод о том, что люди с меньшей охотой отправляли открытки, содержащие плохие новости.
Та б л и ц а 3.4
Зависимость распределения оставленных и полученных открыток
от их содержания
Сообщения |
|||
отправлено |
не отправлено |
||
Новость |
Хорошая |
35 |
25 |
Плохая |
23 |
97 |
|
58 |
122 |
Конечно, таблицы сопряженности могут включать номинативные признаки, имеющие и более двух градаций. Например, по табл. 3.1 для изучения различий в самооценке мальчиков и девочек исследователь мог бы построить таблицу сопряженности признаков «Пол» (две градации) и «Самооценка» (пять градаций).
Задачи и упражнения
На трех разных, достаточно больших группах испытуемых изучалась диагностическая ценность методики измерения креативности. Методика представляла собой 10 заданий, которые испытуемые решали за определенный промежуток времени. Фиксировалось количество решенных заданий (минимум — 0, максимум — 10). По результатам исследования была построена табл. 3.5, позволяющая сравнить три группы по распределению относительных частот (в процентах) показателей креативности.
Табл и ца3.5
Таблица распределения результатов измерения креативности в трех группах
Решенные задания |
Относительные частоты (%) |
||
группа 1 |
группа 2 |
группа 3 |
|
0 |
1 |
10 |
0 |
1 |
4 |
20 |
0 |
2 |
5 |
30 |
1 |
3 |
10 |
30 |
2 |
4 |
20 |
5 |
3 |
5 |
30 |
3 |
4 |
6 |
20 |
1 |
10 |
7 |
5 |
0 |
15 |
8 |
3 |
0 |
25 |
9 |
1 |
0 |
25 |
10 |
1 |
0 |
15 |
ОБРАБОТКА НА КОМПЬЮТЕРЕ
распределения с предварительным указанием объема выборки (УаНй) и числа пропущенных значений (М188т§). В таблице распределения каждая строка соответствует отдельному значению, для которого указаны (столбцы): абсолютная частота (Ргеяиепсу), относительная частота в процентах от объема выборки — без учета пропусков (Регсеп!), относительная частота действительного числа наблюдений — с учетом пропусков (УаНй Регсеп1), накопленная относительная частота в процентах (СитиЛаНуе Регсеп*).
Глава 4
ПЕРВИЧНЫЕ ОПИСАТЕЛЬНЫЕ СТАТИСТИКИ
К первичным описательным статистикам (БезспрН\е МаНзНсз) обычно относят числовые характеристики распределения измеренного на выборке признака. Каждая такая характеристика отражает в одном числовом значении свойство распределения множества результатов измерения-, с точки зрения их расположения на числовой оси либо с точки зрения их изменчивости. Основное назначение каждой из первичных описательных статистик — замена множества значений признака, измеренного на выборке, одним числом (например, средним значением как мерой центральной тенденции). Компактное описание группы при помощи первичных статистик позволяет интерпретировать результаты измерений, в частности, путем сравнения первичных статистик разных групп.
МЕРЫ ЦЕНТРАЛЬНОЙ ТЕНДЕНЦИИ
Мера центральной тенденции (Сеп(га1 ТепАепсу) — это число, характеризующее выборку по уровню выраженности измеренного признака.
Существуют три способа определения «центральной тенденции», каждому из которых соответствует своя мера: мода, медиана и выборочное среднее.
Мода (Мойе) — это такое значение из множества измерений, которое встречается наиболее часто. Моде, или модальному интервалу признака, соответствует наибольший подъем (вершина) графика распределения частот. Если график распределения частот имеет одну вершину, то такое распределение называется унимодальным.
ПРИМЕР
Среди 8 значений признака (3, 7, 3, 5, 7, 8, 7, 6) мода Мо = 7 как наиболее часто встречающееся значение. В табл. 3.2 предыдущего параграфа Мо = 3, а в табл. 3.3 модальным является интервал 50—54.
Когда два соседних значения встречаются одинаково часто и чаще, чем любое другое значение, мода есть среднее этих двух значений.
Распределение может иметь и не одну моду. Когда все значения встречаются одинаково часто, принято считать, что такое распределение не имеет моды.
Бимодальное распределение имеет на графике распределения две вершины, даже если частоты для двух вершин не строго равны. В последнем случае выделяют большую и меньшую моду. Во всей группе может быть и несколько локальных вершин распределения частот. Тогда выделяют наибольшую моду и локальные моды.
Еще раз отметим, что мода — это значение признака, а не его частота.
Медиана (МесНап) — это такое значение признака, которое делит упорядоченное (ранжированное) множество данных пополам так, что одна половина всех значений оказывается меньше медианы, а другая — больше. Таким образом, первым шагом при определении медианы является упорядочивание (ранжирование) всех значений по возрастанию или убыванию. Далее медиана определяется следующим образом:
Среднее (Меап) (Мх — выборочное среднее, среднее арифметическое) — определяется как сумма всех значений измеренного признака, деленная на количество суммированных значений.
Если некоторый признак X измерен в группе испытуемых численностью УУ, мы получим значения: хи х2, ..., х„ ..., хы (где / — текущий номер испытуемого, от 1 до ТУ). Тогда среднее значение Мх определяется по формуле:
Мх= — Ух,.. (4.1)
N |Г]
Свойства среднего. Если к каждому значению переменной прибавить одно и то же число с, то среднее увеличится на это число (уменьшится на это число, если оно отрицательное):
1 м
%(х1+с) = Мх+с. (4.2)
А если каждое значение переменной умножить на одно и то же число с, то среднее увеличится в с раз (уменьшится в с раз, если делить на с):
М(хгО=^1(хгс) = Мх-с. (4.3)
Далее мы неоднократно будем обращаться к такой величине, как отклонение от среднего: (х,— Мх). Из первого, очевидного свойства среднего следует
еще одно важное свойство, не столь очевидное: сумма всех отклонений от среднего равна нулю:
%{х,-Мх) = 0. (4.4)
/ = 1
Соответственно, среднее отклонение от среднего также равно 0.
ВЫБОР МЕРЫ ЦЕНТРАЛЬНОЙ ТЕНДЕНЦИИ
Каждая мера центральной тенденции обладает характеристиками, которые делают ее ценной в определенных условиях.
Для номинативных данных, разумеется, единственной подходящей мерой центральной тенденции является мода, или модальная категория — та градация номинативной переменной, которая встречается наиболее часто.
Для порядковых и метрических переменных, распределение которых унимодальное и симметричное, мода, медиана и среднее совпадают. Чем больше отклонение от симметричности, тем больше расхождение между значениями этих мер центральной тенденции. По этому расхождению можно судить о том, насколько симметрично или асимметрично распределение.
Наиболее очевидной и часто используемой мерой центральной тенденции является среднее значение. Но его использование ограничивается тем, что на величину среднего влияет каждое отдельное значение. Если какое-нибудь значение в группе увеличится на с, то среднее увеличится на с/К Таким образом, среднее значение весьма чувствительно к «выбросам» — экстремально малым или большим значениям переменной.
На величину моды и медианы величина каждого отдельного значения не влияет. Например, если в группе из 20 измерений переменной наибольшее значение утроится по величине, то не изменится ни мода, ни медиана. Величина среднего при этом заметно изменится. Иначе говоря, мода и медиана не чувствительны к «выбросам».
ПРИМЕР
Если 9 человек имеют месячный доход от 5000 до 6000 рублей, со средним 5600 рублей, а доход десятого составляет 15000 рублей, то средний доход для этих 10 человек составит 6540 рублей. Эта цифра не позволяет судить о всей группе, и в качестве меры центральной тенденции следовало бы избрать медиану или моду.
Меры центральной тенденции чаще всего используются для сравнения групп по уровню выраженности признака. Если исследователь при этом сомневается, какую меру использовать, то можно дать простые советы.
Выборочные средние можно сравнивать, если выполняются следующие условия:
П группы достаточно большие, чтобы судить о форме распределения;
П распределения симметричны;
П отсутствуют «выбросы».
Если хотя бы одно из перечисленных условий не выполняется, то следует ограничиться модой и медианой. Альтернативой является «сквозное» ранжирование представителей сравниваемых групп и сравнение средних, вычисленных для рангов этих групп.
КВАНТИЛИ РАСПРЕДЕЛЕНИЯ
Помимо мер центральной тенденции в психологии широко используются меры положения, которые называются квантилями распределения. Квантиль — это точка на числовой оси измеренного признака, которая делит всю совокупность упорядоченных измерений на две группы с известным соотношением их численности. С одним из квантилей мы уже знакомы — это медиана. Это значение признака, которое делит всю совокупность измерений на две группы с равной численностью. Кроме медианы часто используются про- центили и квартили.
Процентили (РегсепШез) — это 99 точек — значений признака (Рь ..., Р99), которые делят упорядоченное (по возрастанию) множество наблюдений на 100 частей, равных по численности. Определение конкретного значения про- центиля аналогично определению медианы. Например, при определении 10-го процентиля, Р10, сначала все значения признака упорядочиваются по возрастанию. Затем отсчитывается 10% испытуемых, имеющих наименьшую выраженность признака. Р10 будет соответствовать тому значению признака, который отделяет эти 10% испытуемых от остальных 90%.
Квартили (ОиагШез) — это 3 точки — значения признака (Р25, Р50, Р75), которые делят упорядоченное (по возрастанию) множество наблюдений на 4 равные по численности части. Первый квартиль соответствует 25-му проценти- лю, второй — 50-му процентилю или медиане, третий квартиль соответствует 75-му процентилю.
Процентили и квартили используются для определения частоты встречаемости тех или иных значений (или интервалов) измеренного признака или для выделения подгрупп и отдельных испытуемых, наиболее типичных или нетипичных для данного множества наблюдений.
МЕРЫ ИЗМЕНЧИВОСТИ
Меры центральной тенденции отражают уровень выраженности измеренного признака. Однако не менее важной характеристикой является выраженность индивидуальных различий испытуемых по измеренному признаку. Меры изменчивости (Окретоп) применяются в психологии для численного выражения величины межиндивидуальной вариации признака.
Наиболее простой и очевидной мерой изменчивости является размах, указывающий на диапазон изменчивости значений. Размах (Каще) — это просто разность максимального и минимального значений:
^ -^шах ^шт'
Ясно, что это очень неустойчивая мера изменчивости, на которую влияют любые возможные «выбросы». Более устойчивыми являются разновидности размаха: размах от 10 до 90-го процентиля (Р9П— Р1П) или междуквартильный размах (Рц — Рн). Последние две меры изменчивости находят свое применение для описания вариации в порядковых данных. А для метрических данных используется дисперсия — величина, название которой в науке является синонимом изменчивости.
Дисперсия (Уапапсе) — мера изменчивости для метрических данных, пропорциональная сумме квадратов отклонений измеренных значений от их арифметического среднего:
/ = 1
Чем больше изменчивость в данных, тем больше отклонения значений от среднего, тем больше величина дисперсии. Величина дисперсии получается при усреднении всех квадратов отклонений:
пх = - . (4.5)
N
Следует отличать теоретическую (генеральную) дисперсию — меру изменчивости бесконечного числа измерений (в генеральной совокупности, популяции в целом) и эмпирическую, или выборочную, дисперсию — для реально измеренного множества значений признака. Выборочное значение в статистике используется для оценки дисперсии в генеральной совокупности. Выше указана формула для генеральной (теоретической) дисперсии (/?*), которая, понятно, не вычисляется. Для вычислений используется формула выборочной (эмпирической) дисперсии (Бх), отличающаяся знаменателем:
О^т • (4.6)
N-I
ПРИМЕР
Вычислим дисперсию признака Хдля выборки Аг= 6:
№ |
х, |
(х-Мх) |
(х-МхУ |
1 |
4 |
4-3 |
1 |
2 |
2 |
2-3 |
1 |
3 |
4 |
4-3 |
1 |
4 |
1 |
1-3 |
4 |
5 |
5 |
5-3 |
4 |
6 |
2 |
2-3 |
1 |
? 18 0 12
Мх = 18/6 = 3; Д = 12/(6-1) = 2,4
Стандартное отклонение (5Ы. Аеугайоп) (сигма, среднеквадратическое отклонение) — положительное значение квадратного корня из дисперсии:
(4.7)
N-1
На практике чаще используется именно стандартное отклонение, а не дисперсия. Это связано с тем, что сигма выражает изменчивость в исходных единицах измерения признака, а дисперсия — в квадратах исходных единиц.
Свойства дисперсии:
0, + с = До так как X [(х,-+с) — {Мх+с)\2 = 2(х, — Мх)2.
М1=М2=0
Рис. 4.1. Графики распределения частот: с разной дисперсией (/),<1>2), одинаковой дисперсией (-02= &)) и разными средними арифметическими (М2<М3)
Прибавление константы к каждому значению переменной сдвигает график распределения этой переменной на эту константу (меняется среднее), но изменчивость (дисперсия) при этом остается неизменной.
3. Умножение каждого значения переменной на константу с изменяет дис
персию в с2 раз:
Ох с = О/с2, так как Е [(х,с) - (Мхс)]2 = с2Е(х(- - Мх)2. При объединении двух выборок с одинаковой дисперсией, но с разными
средними значениями дисперсия увеличивается. ПРИМЕР
Если одна группа содержит значения: 1,1,1,1,1, а другая группа —значения 3,3,3,
3, 3, то дисперсии этих групп одинаковы и равны 0. Если же объединить эти две
группы, то дисперсия будет равна не 0, а 1.
Вообще говоря, справедливо утверждение: при объединении двух групп к внутригрупповой дисперсии каждой группы добавляется дисперсия, обусловленная различием между группами (их средними). И чем больше различие между средними значениями, тем больше увеличивается дисперсия объединенных групп.
Стандартизация или 1-преобразование данных — это перевод измерений в стандартную 2-шкалу (2-зсогез) со средним Мг = 0 и Д, (или ог) = 1. Сначала для переменной, измеренной на выборке, вычисляют среднее Мх стандартное отклонение ах. Затем все значения переменной х, пересчитываются по формуле:
х -М
г, = ' *■ (4.8)
а*
В результате преобразованные значения (г-значения) непосредственно выражаются в единицах стандартного отклонения от среднего. Если для одной выборки несколько признаков переведены в г.-значения, появляется возможность сравнения уровня выраженности разных признаков у того или иного испытуемого. Для того чтобы избавиться от неизбежных отрицательных и дробных значений, можно перейти к любой другой известной шкале: К} (среднее 100, сигма 15); Т-оценок (среднее 50, сигма 10); 10-балльной — стенов (среднее 5,5, сигма 2) и др. Перевод в новую шкалу осуществляется путем умножения каждого ^-значения на заданную сигму и прибавления среднего:
^ = + (4.9)
Асимметрия {8кете$х) — степень отклонения графика распределения частот от симметричного вида относительно среднего значения. Если исходные данные переведены в г-значения, показатель асимметрии вычисляется по формуле:
Аз = -± . (4.10)
N
Рис. 4.2. Распределения частот с разными значениями асимметрии и эксцесса
Для симметричного распределения асимметрия равна 0. Если чаще встречаются значения меньше среднего, то говорят о левосторонней, или положительной асимметрии (Аз > 0). Если же чаще встречаются значения больше среднего, то асимметрия — правосторонняя, или отрицательная (/45 <0). Чем больше отклонение от нуля, тем больше асимметрия.
Эксцесс (КиНозгз•) — мера плосковершинности или остроконечности графика распределения измеренного признака. Если исходные данные переведены в г-значения, показатель эксцесса определяется формулой:
Ех = -^--Ъ. (4.11)
Островершинное распределение характеризуется положительным эксцессом (Ех> 0), а плосковершинное — отрицательным (-3 < Ех< 0). «Средневер- шинное» (нормальное) распределение имеет нулевой эксцесс (Ех = 0).
Задачи и упражнения
Группа А |
Группа В |
3 |
6 |
2 |
5 |
2 |
5 |
1 |
4 |
Какой будет дисперсия 8 значений, полученных путем объединения групп? Объясните полученный результат.
Рис. 4.3. Графики распределения относительных частот общительности юношей (1) и девушек (2)
ОБРАБОТКА НА КОМПЬЮТЕРЕ
Способ 1. Выбираем Апа1уге > БезспрНуе 8(аи$ис$ > Ргеяиепаез... В открывшемся диалоговом окне (Р^е^иепс^е8) переносим из левой в правую часть интересующие нас переменные. Если таблица распределения частот нас не интересует, снимаем флажок Б18р1ау й^иепсу 1аЫе$ (Показывать таблицы частот). Нажимаем кнопку 8!а!18!1с$... Выбираем интересующие нас статистики и отмечаем их флажком: центральной тенденции (Сеп1га1 Тепйепсу) — среднее (Меап), моду (Мойе), медиану (Ме<Иап); изменчивости ф18рег8юп) — стандартное отклонение (51(1. йеу^айоп), дисперсию (Уапапсе); распределения — асимметрию (8ке\упе$$) и эксцесс (КигЮ818). После этого нажимаем СопИпие, затем ОК и получаем результат.
Способ 2. Выбираем Апа1уге > БехспрЦуе 81а(18(!С8 > БезспрЦуез... В открывшемся диалоговом окне переносим из левой в правую часть интересующие нас переменные. Нажимаем кнопку Ор(юп8... и отмечаем флажком те статистики, которые нас интересуют (см. выше). Нажимаем СопИпие, затем ОК и получаем результат.
Глава 5
НОРМАЛЬНЫЙ ЗАКОН РАСПРЕДЕЛЕНИЯ И ЕГО ПРИМЕНЕНИЕ
Нормальный закон распределения играет важнейшую роль в применении численных методов в психологии. Он лежит в основе измерений, разработки тестовых шкал, методов проверки гипотез.
История применения закона нормального распределения в социальных и биологических науках начинается, по-видимому, с работы бельгийского ученого А. Кетле «Опыт социальной физики» (1835 г.). В ней он доказывал, что такие явления, как продолжительность жизни, возраст вступления в брак и появления первого ребенка и т. д., подчиняются строгой закономерности. Она проявляется в том, что чаще всего встречаются средние значения соответствующих показателей, и чем больше отклонение от этой средней величины, тем реже встречаемость таких отклонений. Одинаковые отклонения от среднего в меньшую и в большую сторону встречаются одинаково реже, чем среднее значение. Эту закономерность он назвал «законом уклонения от средней величины». В его исследованиях, и позднее — в исследованиях англичанина Ф. Галь- тона, было доказано, что распределение частот встречаемости любого демографического (продолжительность жизни и пр.) или антропометрического (рост, вес и пр.) показателя, измеренного на большой выборке людей, имеет одну и туже «колоколо-
Частота 1250
1000
750
500
250
\
щ
\
/
V
А
/
-•— 1 I I I I I I I I I I I » . I
152 165 178 191 РОСТ, СМ
Рис. 5.1. Полигон частот для роста 8585 взрослых людей, родившихся в Англии в XIX в.
ГлассДж., Стенли Дж. Статистические методы в педагогике и психологии. М., 1976. С. 98.
образную» форму (см. рис. 5.1). Форма таких распределений может быть описана математической формулой, которую предложил еще в XVIII веке математик де Муавр.
Де Муавр решал следующую задачу. Предположим, монета в азартной игре подбрасывается 10 раз, и каждый раз она может с равным успехом выпасть «орлом» или «решкой». Какова вероятность того, что в результате этой игры выпадет 0 «орлов», или 1 «орел», ..., 10 «орлов»? Сложные вычисления дают математически точное решение такой задачи (рис. 5.2). А если игра состоит из 100 подбрасываний монеты, или 1000? Де Муавру удалось доказать, что уравнение кривой, соединяющей вершины отрезков на рис. 5.2, для данного случая или для любой другой подобной задачи имеет следующую формулу:
1
(5.1)
где/Ос,) — высота подъема кривой, е — основание натурального логарифма (примерно 2,718), и—число «пи» (примерно 3,14), Ми о — среднее и стандартное отклонения для переменной х„ которые определяют положение кривой на числовой оси и задают ее размах. Эта формула и соответствующая ей кривая (см. рис. 5.2) впоследствии получили название закона нормального распределения.
V Я
Если встанет на ребро, выигрыш ваш.
Итак, исход азартной игры, и продолжительность жизни, и рост человека — все это случайные события, частота (или вероятность) встречаемости которых подчинена закону нормального распределения. А. Кетле объяснял это существованием «идеала» человеческой природы, которому соответствуют средние значения различных пока-
4 5 6 Число «орлов»
Рис. 5.2. График распределения вероятностей выпадения «орлов» в игре с 10 подбрасываниями монеты и кривая нормального распределения
зателей. Ф. Гальтон, двоюродный брат Ч. Дарвина, проявление нормального закона рассматривал в связи с биологической изменчивостью, наследственностью и отбором. В дальнейшем трудами Ф. Гальтона и его последователей было доказано, что и психологические особенности, например способности, подчиняются нормальному закону. Поэтому дальнейшее развитие измерительного подхода в психологии и статистического аппарата проверки гипотез происходило на базе этого общего закона.
Подведем важный итог этого краткого исторического экскурса. Начиная со второй половины XIX столетия измерительные и вычислительные методы в психологии разрабатываются на основе следующего принципа. Если индивидуальная изменчивость некоторого свойства есть следствие действия множества причин, то распределение частот для всего многообразия проявлений этого свойства в генеральной совокупности соответствует кривой нормального распределения. Это и есть закон нормального распределения.
Закон нормального распределения имеет целый ряд очень важных следствий, к которым мы не раз еще будем обращаться. Сейчас же отметим, что если при изучении некоторого свойства мы произвели его измерение на выборке испытуемых и получили отличающееся от нормального распределение, то это значит, что либо выборка нерепрезентативна генеральной совокупности, либо измерения произведены не в шкале равных интервалов.
НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ КАК СТАНДАРТ
Каждому психологическому (или шире — биологическому) свойству соответствует свое распределение в генеральной совокупности. Чаще всего оно является нормальным и характеризуется своими параметрами: средним (М) и стандартным отклонением (о). Только эти два значения отличают друг от друга бесконечное множество нормальных кривых, одинаковой формы, заданной уравнением (5.1). Среднее задает положение кривой на числовой оси и выступает как некоторая исходная, нормативная величина измерения. Стандартное отклонение задает ширину этой кривой, зависит от единиц измерения и выступает как масштаб измерения (рис. 5.3).
Рис. 5.3. Семейство нормальных кривых, 1-е распределение отличается от 2-го стандартным отклонением (О) < о2)> 2-е от 3-го средним арифметическим (М2 < М3)
Все многообразие нормальных распределений может быть сведено к одной кривой, если применить ^-преобразование (по формуле 4.8) ко всем возможным измерениям свойств. Тогда каждое свойство будет иметь среднее 0 и стандартное отклонение 1. На рис. 5.4 построен график нормального распределения для М= 0 и о = 1. Это и есть единичное нормальное распределение, которое используется как стандарт — эталон. Рассмотрим его важные свойства.
П Единицей измерения единичного нормального распределения является стандартное отклонение.
П Кривая приближается к оси 2 по краям асимптотически — никогда не касаясь ее.
П Кривая симметрична относительно М= 0. Ее асимметрия и эксцесс равны нулю.
П Кривая имеет характерный изгиб: точка перегиба лежит точно на расстоянии в одну о от М.
П Площадь между кривой и осью 2равна 1.
Последнее свойство объясняет название единичное нормальное распределение и имеет исключительно важное значение. Благодаря этому свойству площадь под кривой интерпретируется как вероятность, или относительная частота. Действительно, вся площадь под кривой соответствует вероятности того, что признак примет любое значение из всего диапазона его изменчивости (от —до +0°). Площадь под единичной нормальной кривой слева или справа от нулевой точки равна 0,5. Это соответствует тому, что половина генеральной совокупности имеет значение признака больше 0, а половина — меньше 0. Относительная частота встречаемости в генеральной совокупности значений признака в диапазоне от до равна площади под кривой, лежащей между соответствующими точками. Отметим еще раз, что любое нормальное распределение может быть сведено к единичному нормальному распределению путем ^-преобразования.
68,26% ^
95,44% н
99,72% ^
Рис. 5.4. Стандартное нормальное распределение
Таким образом:
□ если X,- имеет нормальное распределение со средним Ми стандартным отклонением о, то т. =(х— Мх)/а характеризуется единичным нормальным распределением со средним 0 и стандартным отклонением 1;
П площадь между х, и х2 в нормальном распределении со средним Мх и стандартным отклонением о равна площади между 1х — (Х\ — Мх)/а и г2 = {х2-Мх)/ъ в единичном нормальном распределении.
Итак, наиболее важным общим свойством разных кривых нормального распределения является одинаковая доля площади под кривой между одними и теми же двумя значениями признака, выраженными в единицах стандартного отклонения.
Полезно помнить, что для любого нормального распределения существуют следующие соответствия между диапазонами значений и площадью под кривой:
М± а соответствует =68% (точно — 68,26%) площади;
М±2а соответствует =95% (точно — 95,44%) площади;
М±3а соответствует =100% (точно — 99,72%) площади.
Единичное нормальное распределение устанавливает четкую взаимосвязь стандартного отклонения и относительного количества случаев в генеральной совокупности для любого нормального распределения. Например, зная свойства единичного нормального распределения, мы можем ответить на следующие вопросы. Какая доля генеральной совокупности имеет выраженность свойства от — 1о до +1о? Или какова вероятность того, что случайно выбранный представитель генеральной совокупности будет иметь выраженность свойства, на За превышающую среднее значение? В первом случае ответом будет 68,26% всей генеральной совокупности, так как от —1 до +1 содержится 0,6826 площади единичного нормального распределения. Во втором случае ответ: (100-99,72)/2 = 0,14%.
Полезно знать, что если распределение является нормальным, то:
90% всех случаев располагается в диапазоне значений М± 1,64<т;
95% всех случаев располагается в диапазоне значений М± 1,96с;
99% всех случаев располагается в диапазоне значений М± 2,58<т.
Существует специальная таблица, позволяющая определять площадь под кривой справа от любого положительного т. (приложение 1). Пользуясь ею, можно определить вероятность встречаемости значений признака из любого диапазона. Это широко используется при интерпретации данных тестирования.
ПРИМЕРЫ
1. Значение по шкале Векслера (М— 100; о = 15) некоторого тестируемого равно 125. Вопрос о степени выраженности интеллекта у данного индивидуума переформулируем следующим образом: насколько часто или редко встречаются значения ниже или выше 125? Решение. Перейдем от шкалы к единицам стандартного отклонения (^-значениям): (125-100)/15= 1,66. По таблице из приложения 1 находим площадь под кривой справа от этого значения, она равна 0,0485. Это значит, что 1(3 125 и выше встречается довольно редко — менее, чем в 5% случаев.
2. Какова вероятность того, что случайно выбранный человек будет иметь по шкале Векслера в диапазоне от 100 до 120? Решение. В единицах стандартного отклонения ^ - 0,0; г2 = 1,66. Площадь справа от ^ - 0,5, справа от 1г — примерно 0,0918, следовательно, площадь между ^ и г2 равна 0,5-0,0918 = 0,4082. Таким образом, вероятность того, что случайно выбранный человек будет иметь 10 в диапазоне от 100 до 120, равна примерно 0,41.
Несмотря на исходный постулат, в соответствии с которым свойства в генеральной совокупности имеют нормальное распределение, реальные данные, полученные на выборке, нечасто распределены нормально. Более того, разработано множество методов, позволяющих анализировать данные без всякого предположения о характере их распределения как в выборке, так и в генеральной совокупности. Эти обстоятельства иногда приводят к ложному убеждению, что нормальное распределение — пустая математическая абстракция, не имеющая отношения к психологии. Тем не менее, как мы увидим в дальнейшем, можно указать по крайней мере на три важных аспекта применения нормального распределения:
РАЗРАБОТКА ТЕСТОВЫХ ШКАЛ
Тестовые шкалы разрабатываются для того, чтобы оценить индивидуальный результат тестирования путем сопоставления его с тестовыми нормами, полученными на выборке стандартизации. Выборка стандартизации специально формируется для разработки тестовой шкалы — она должна быть репрезентативна генеральной совокупности, для которой планируется применять данный тест. Впоследствии при тестировании предполагается, что и тестируемый, и выборка стандартизации принадлежат одной и той же генеральной совокупности.
Исходным принципом при разработке тестовой шкалы является предположение о том, что измеряемое свойство распределено в генеральной совокупности в соответствии с нормальным законом. Соответственно, измерение в тестовой шкале данного свойства на выборке стандартизации также должно обеспечивать нормальное распределение. Если это так, то тестовая шкала является метрической — точнее, равных интервалов. Если это не так, то свойство удалось отразить в лучшем случае — в шкале порядка. Естественно, что большинство стандартных тестовых шкал являются метрическими, что позволяет более детально интерпретировать результаты тестирования — с учетом свойств нормального распределения — и корректно применять любые методы статистического анализа. Таким образом, основная проблема стандартизации теста заключается в разработке такой шкалы, в которой распределение тестовых показателей на выборке стандартизации соответствовало бы нормальному распределению.
Исходные тестовые оценки — это количество ответов на те или иные вопросы теста, время или количество решенных задач и т. д. Они еще называются первичными, или «сырыми» оценками. Итогом стандартизации являются тестовые нормы — таблица пересчета «сырых» оценок в стандартные тестовые шкалы.
Существует множество стандартных тестовых шкал, основное назначение которых — представление индивидуальных результатов тестирования в удобном для интерпретации виде. Некоторые из этих шкал представлены на рис. 5.5. Общим для них является соответствие нормальному распределению, а различаются они только двумя показателями: средним значением и масштабом (стандартным отклонением — о), определяющим дробность шкалы.
-4а I |
-Зст I |
-2ст -1а Среднее +1а Тестовый показатель I I I I |
+2ст I |
+3<7 I |
+4о I |
-4 |
-3 |
-2 -1 0 +1 |
+2 I I |
+3 |
+4 |
1 4% |
2 3 4 5 6 7 8 I 7%| 12%| 17%| 20%, 17%| 12%, |
9 7%| |
10 4% |
||
1 |
2 3 4 5 6 7 I I I I I I I I I I I |
8 I I |
9 |
||
I |
1 5 10 20 30 40 50 60 70 80 90 I I I I |
95 99 I |
I |
Стены
Стенайны
Процентили Ю (шкала Векслера)
55 70 85 100 115 130 145
Рис. 5.5. Нормальная кривая и тестовые шкалы
Общая последовательность стандартизации (разработки тестовых норм — таблицы пересчета «сырых» оценок в стандартные тестовые) состоит в следующем:
Проверка распределения «сырых» оценок на соответствие нормальному закону производится при помощи специальных критериев, которые мы рассмотрим далее в этой главе.
Линейная стандартизация заключается в том, что определяются границы интервалов «сырых» оценок, соответствующие стандартным тестовым показателям. Эти границы вычисляются путем прибавления к среднему «сырых» оценок (или вычитания из него) долей стандартных отклонений, соответствующих тестовой шкале. Пример, приведенный ниже, демонстрирует процедуру линейной стандартизации.
ПРИМЕР
Предположим, получено распределение «сырых» оценок, соответствующее нормальному, со средним Мх = 22 и стандартным отклонением ах = 6. В качестве стандартной тестовой шкалы выбрана 10-балльная шкаластенов, предложенная Р. Кет- телом = 5,5; ой = 2). Результатом линейной стандартизации должна являться таблица пересчета из шкалы «сырых» оценок в шкалу стенов. Для этого каждому стандартному значению ставится в соответствие интервал «сырых» оценок. Границы интервалов определяются следующим образом. Среднее «сырых» оценок должно делить шкалу стенов ровно пополам (1—5 — ниже среднего, 6—10 — выше среднего). Следовательно, среднее «сырых» оценок Мх — 22 — это граница стенов 5 и 6. Следующая граница справа — отделяющая стены 6 и 7 — отстоит от среднего на оя/2. Этой границе должна соответствовать граница «сырых» оценок Мх + ох/2 = 22 + 3 = 25. Также определяются границы всех оставшихся интервалов, а границы крайних интервалов остаются открытыми. Результатом являются тестовые нормы — таблица пересчета «сырых» баллов в стандартные тестовые оценки (табл. 5.1)1.
' Обратите внимание, что левая граница каждого диапазона «сырых» оценок исключает границу интервалов, а правая — включает ее. Можно было бы сделать и наоборот, но главное, чтобы границы соседних диапазонов не совпадали, во избежание недоразумений при попадании индивидуального значения на границу интервалов.
Табл и ца 5.
Тестовые нормы — таблица пересчета «сырых» баллов в стены
Стены |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
«Сырые» |
<11 |
11-13 |
14-16 |
17-19 |
20-22 |
23-25 |
26-28 |
29-31 |
32-34 |
>34 |
баллы |
Пользуясь этой таблицей тестовых норм индивидуальный результат («сырой» балл) переводят в шкалу стенов, что позволяет интерпретировать выраженность измеряемого свойства.
В общем случае границы интервалов определяются по формуле г-преоб- разования:
->Х,=Мх+-*-{51,-М„),
где X/ — искомая граница интервала «сырых» оценок, 5/, — граница интервала в стандартной тестовой шкале, Мх, ах, Мя, а51 — средние и стандартные отклонения «сырых» оценок (х) и стандартной шкалы ($().
Эмпирическая нормализация применяется, когда распределение «сырых» баллов отличается от нормального. Она заключается в изменении содержания тестовых заданий. Например, если «сырая» оценка — это количество задач, решенных испытуемыми за отведенное время, и получено распределение с правосторонней асимметрией, то это значит, что слишком большая доля испытуемых решает больше половины заданий. В этом случае необходимо либо добавить более трудные задания, либо сократить время решения.
Нелинейная нормализация применяется, если эмпирическая нормализация невозможна или нежелательна, например, с точки зрения затрат времени и ресурсов. В этом случае перевод «сырых» оценок в стандартные производится через нахождение процентильных границ групп в исходном распределении, соответствующих процентильным границам групп в нормальном распределении стандартной шкалы. Каждому интервалу стандартной шкалы ставится в соответствие такой интервал шкалы «сырых» оценок, который содержит туже процентную долю выборки стандартизации. Величины долей определяются по площади под единичной нормальной кривой, заключенной между соответствующими данному интервалу стандартной шкалы г-оценками.
х, - Мг 51, - Л/,.,
Например, для того чтобы определить, какой «сырой» балл должен соответствовать нижней границе стена 10, необходимо сначала выяснить, какому г-значению соответствует эта граница (г = 2). Затем по таблице нормального распределения (приложение 1) надо определить, какая доля площади под нормальной кривой находится правее этого значения (0,023). После этого определяется, какое значение отсекает 2,3% наибольших значений «сырых» баллов выборки стандартизации. Найденное значение и будет соответствовать границе 9 и 10 стена.
ПРИМЕР
Рассмотрим пример нелинейной нормализации. Допустим, разрабатываемый тест предполагает решение 20 заданий. Объем выборки стандартизации N= 200 человек. Сначала строится таблица распределения частот «сырых» оценок (табл. 5.2).
Таблица 5.2
Таблица распределения частот «сырых» оценок
Оценка |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
16 |
17 |
18 |
19 |
20 |
Частота |
2 |
6 |
4 |
6 |
4 |
8 |
6 |
10 |
10 |
12 |
12 |
16 |
24 |
20 |
14 |
14 |
10 |
14 |
8 |
Исходное распределение заметно отличается от нормального — оно имеет правостороннюю асимметрию (рис. 5.6). В качестве стандартной выберем шкалу стенай- нов, для каждой градации которой известны процентные доли (см. рис. 5.5). Исходя из этих процентных долей и таблицы распределения «сырых» оценок строится таблица тестовых норм (табл. 5.3). Сначала отбираются 4% испытуемых, решивших наименьшее количество заданий. У нас 8 испытуемых (4%) решили менее 4 заданий. Это число заданий будет соответствовать 1-му стенайну. Второму стенайну будет соответствовать результат следующих 7% (14) испытуемых: от 4 до 6 заданий, и т. д. Итог нелинейной стандартизации — таблица перевода «сырых» оценок в шкальные, стенайны (табл. 5.3).
Таблица 5.3
Пример нелинейной нормализации: пересчет «сырых» оценок в шкалу стенайнов
Стенайны |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
% |
4 |
7 |
12 |
17 |
20 |
17 |
12 |
7 |
4 |
«Сырые» оценки |
<4 |
4-6 |
7-9 |
10-12 |
13-14 |
15-16 |
17-18 |
19 |
20 |
25 -
20 - 15 - 10 - 5 -
П описание выборки стандартизации;
П характеристику распределения «сырых» баллов с указанием среднего и стандартного отклонения;
ПРОВЕРКА НОРМАЛЬНОСТИ РАСПРЕДЕЛЕНИЯ
Для проверки нормальности используются различные процедуры, позволяющие выяснить, отличается ли от нормального выборочное распределение измеренной переменной. Необходимость такого сопоставления возникает, когда мы сомневаемся в том, в какой шкале представлен признак — в порядковой или метрической. А сомнения такие возникают очень часто, так как заранее нам, как правило, не известно, в какой шкале удастся измерить изучаемое свойство (исключая, конечно, случаи явно номинативного измерения).
Важность определения того, в какой шкале измерен признак, трудно переоценить, по крайней мере, по двум причинам. От этого зависит, во-первых, полнота учета исходной эмпирической информации (в частности, об индивидуальных различиях), во-вторых, доступность многих методов анализа данных. Если исследователь принимает решение об измерении в порядковой шкале, то неизбежное последующее ранжирование ведет к потере части исходной информации о различиях между испытуемыми, изучаемыми группами, о взаимосвязях между признаками и т. д. Кроме того, метрические данные позволяют использовать значительно более широкий набор методов анализа и, как следствие, сделать выводы исследования более глубокими и содержател ьн ыми.
Наиболее весомым аргументом в пользу того, что признак измерен в метрической шкале, является соответствие выборочного распределения нормальному. Это является следствием закона нормального распределения. Если выборочное распределение не отличается от нормального, то это значит, что измеряемое свойство удалось отразить в метрической шкале (обычно — интервальной).
Существует множество различных способов проверки нормальности, из которых мы кратко опишем лишь некоторые, предполагая, что эти проверки читатель будет производить при помощи компьютерных программ.
Графический способ (0-0 РШз, Р-Р РШз). Строят либо квантильные графики, либо графики накопленных частот. Квантильные графики (0-0 РШз) строятся следующим образом. Сначала определяются эмпирические значения изучаемого признака, соответствующие 5, 10, ..., 95-процентилю. Затем по таблице нормального распределения для каждого из этих процентилей определяются г-значения (теоретические). Два полученных ряда чисел задают координаты точек на графике: эмпирические значения признака от
кладываются на оси абсцисс, а соответствующие им теоретические значения — на оси ординат. Для нормального распределения все точки будут лежать на одной прямой или рядом с ней. Чем больше расстояние от точек до прямой линии, тем меньше распределение соответствует нормальному. Графики накопленных частот (Р-Р Р1о(з) строятся подобным образом. На оси абсцисс через равные интервалы откладываются значения накопленных относительных частот, например 0,05; 0,1; ...; 0,95. Далее определяются эмпирические значения изучаемого признака, соответствующие каждому значению накопленной частоты, которые пересчитываются в ^-значения. По таблице нормального распределения определяются теоретические накопленные частоты (площадь под кривой) для каждого из вычисленных г-зна- чений, которые откладываются на оси ординат. Если распределение соответствует нормальному, полученные на графике точки лежат на одной прямой.
Для формулы эксцесса (4.11) стандартная ошибка эксцесса:
Критерии асимметрии и эксцесса. Эти критерии определяют допустимую степень отклонения эмпирических значений асимметрии и эксцесса от нулевых значений, соответствующих нормальному распределению. Допустимая степень отклонения — та, которая позволяет считать, что эти статистики существенно не отличаются от нормальных параметров. Величина допустимых отклонений определяется так называемыми стандартными ошибками асимметрии и эксцесса. Для формулы асимметрии (4.10) стандартная ошибка определяются по формуле:
где ТУ — объем выборки.
Выборочные значения асимметрии и эксцесса значительно отличаются от нуля, если не превышают значения своих стандартных ошибок. Это можно считать признаком соответствия выборочного распределения нормальному закону. Следует отметить, что компьютерные программы вычисляют показатели асимметрии, эксцесса и соответствующие им стандартные ошибки по другим, более сложным формулам.
Статистический критерий нормальности Колмогорова-Смирнова считается наиболее состоятельным для определения степени соответствия эмпирического распределения нормальному. Он позволяет оценить вероятность того, что данная выборка принадлежит генеральной совокупности с нормальным распределением. Если эта вероятность < 0,05, то данное эмпирическое распределение существенно отличается от нормального, а если р > 0,05, то делают вывод о приблизительном соответствии данного эмпирического распределения нормальному.
Причины отклонения от нормальности. Общей причиной отклонения формы выборочного распределения признака от нормального вида чаще всего является особенность процедуры измерения: используемая шкала может обладать неравномерной чувствительностью к измеряемому свойству в разных частях диапазона его изменчивости.
ПРИМЕР
Предположим, выраженность некоторой способности определяется количеством выполненных заданий за отведенное время. Если задания простые или время слишком велико, то данная измерительная процедура будет обладать достаточной чувствительностью лишь в отношении части испытуемых, для которых эти задания достаточно трудны. И слишком большая доля испытуемых будет решать все или почти все задания. В итоге мы получим распределение с выраженной правосторонней асимметрией. Можно, конечно, впоследствии повысить качество измерения путем эмпирической нормализации, добавив более сложные задания или сократив время выполнения данного набора заданий. Если же мы чрезмерно усложним измерительную процедуру, то возникнет обратная ситуация, когда большая часть испытуемых будет решать малое количество заданий и эмпирическое распределение приобретет левостороннюю асимметрию.
Таким образом, такие отклонения от нормального вида, как право- или левосторонняя асимметрия или слишком большой эксцесс (больше 0), связаны с относительно низкой чувствительностью измерительной процедуры в области моды (вершины графика распределения частот).
Последствия отклонения от нормальности. Следует отметить, что задача получения эмпирического распределения, строго соответствующего нормальному закону, нечасто встречается в практике исследования. Обычно такие случаи ограничиваются разработкой новой измерительной процедуры или тестовой шкалы, когда применяется эмпирическая или нелинейная нормализация для «исправления» эмпирического распределения. В большинстве случаев соответствие или несоответствие нормальности является тем свойством измеренного признака, который исследователь должен учитывать при выборе статистических процедур анализа данных.
В общем случае при значительном отклонении эмпирического распределения от нормального следует отказаться от предположения о том, что признак измерен в метрической шкале. Но остается открытым вопрос о том, какова мера существенности этого отклонения? Кроме того, разные методы анализа данных обладают различной чувствительностью к отклонениям от нормальности. Обычно при обосновании перспективности этой проблемы приводят принцип Р. Фишера, одного из «отцов-основателей» современной статистики: «Отклонения от нормально
го вида, если только они не слишком заметны, можно обнаружить лишь для больших выборок; сами по себе они вносят малое отличие в статистические критерии и другие вопросы»6. К примеру, при малых, но обычных для психологических исследований выборках (до 50 человек) критерий Колмогорова-Смирнова недостаточно чувствителен при определении даже весьма заметных «на глаз» отклонений от нормальности. В то же время некоторые процедуры анализа метрических данных вполне допускают отклонения от нормального распределения (одни — в большей степени, другие — в меньшей). В дальнейшем при изложении материала мы при необходимости будем оговаривать меру жесткости требования нормальности.
Задачи и упражнения
а) вероятность того, что случайно выбранный человек будет иметь 10 между 79 и 121;
б) вероятность того, что случайно выбранный человек будет иметь 10 выше 127; ниже 73.
Процентили |
Ло |
Л 0 |
Л 0 |
Л 0 |
Ао |
Х1 |
6 |
8 |
10 |
И |
12 |
В области каких значений шкала, в которой измерен признак, обладает большей дифференцирующей способностью (чувствительностью), а в какой — меньшей?
ОБРАБОТКА НА КОМПЬЮТЕРЕ
Критерии асимметрии и эксцесса. Выбираем Апа1уге > ОезспрКуе ЗЫ&Исв > Бевспр^уев... В окне диалога переносим из левого окна в правое интересующие нас переменные. Нажимаем кнопку Орйопв..., ставим флажок 0|$1пЬи1юп >
Киг10818, 8ке\упе$$, нажимаем СопИпие, затем ОК. В таблице результатов столбцы Киг1о818 и 8ке\упев8 содержат значения асимметрии (Киг1о$1$) и эксцесса (8ке\упе$$) и соответствующие им стандартные ошибки (81с1. Еггог). Распределение соответствует нормальному виду, если для соответствующей переменной абсолютные значения асимметрии и эксцесса не превышают свои стандартные ошибки.
Графический способ. Выбираем СгарЬв > РР... — графики накопленных частот (или СгарЬв > (2(2... — квантильные графики). Открывается диалог Р-Р Р1о1в (С2-(2 Р1о{8). Переносим из левого в правое окно интересующие нас переменные. Нажимаем ОК. В окне результатов просматриваем графики 1Чогта1 Р-Р Р1о{... (1Чогта1 Р1о1...), на которых по горизонтальной оси отложены соответствующие эмпирические значения, а по вертикальной оси — теоретические значения. Чем ближе точки графиков к прямой линии, тем меньше отличие распределения от нормального вида.
Критерий нормальности Колмогорова-Смирнова. Выбираем Апа1у2е > 1\опра- гате(пс Те§{8 > 1-8ашр1е К-8... Открывается диалог Опе-8атр1е Ко1то§огоу- 8пнгпоу Тев{. Переносим из левого в правое окно интересующие нас переменные. Нажимаем ОК. В соответствующем переменной столбце находим Ко1то§огоу-81Шгпоу Ъ (значение критерия) и Азутр. 8щ. (2-{аНе(1) (вероятность того, что распределение соответствует нормальному виду). Если значение Азутр. 815. меньше или равно 0,05, то распределение существенно отличается от нормального вида. Если Авушр. 8щ. больше 0,05, то существенного отличия от нормальности не обнаружено.
Глава 6
КОЭФФИЦИЕНТЫ КОРРЕЛЯЦИИ
В главе 4 мы рассмотрели основные одномерные описательные статистики — меры центральной тенденции и изменчивости, которые применяются для описания одной переменной. В этой главе мы рассмотрим основные коэффициенты корреляции.
Коэффициент корреляции — двумерная описательная статистика, количественная мера взаимосвязи (совместной изменчивости) двух переменных.
История разработки и применения коэффициентов корреляции для исследования взаимосвязей фактически началась одновременно с возникновением измерительного подхода к исследованию индивидуальных различий — в 1870—1880 гг. Пионером в измерении способностей человека, как и автором самого термина «коэффициент корреляции», был Френсис Гальтон, а самые популярные коэффициенты корреляции были разработаны его последователем Карлом Пирсоном. С тех пор изучение взаимосвязей с использованием коэффициентов корреляции является одним из наиболее популярных в психологии занятием.
К настоящему времени разработано великое множество различных коэффициентов корреляции, проблеме измерения взаимосвязи с их помощью посвящены сотни книг. Поэтому, не претендуя на полноту изложения, мы рассмотрим лишь самые важные, действительно незаменимые в исследованиях меры связи — /--Пирсона, г-Спирмена и т-Кендалла1. Их общей особенностью является то, что они отражают взаимосвязь двух признаков, измеренных в количественной шкале — ранговой или метрической.
Вообще говоря, любое эмпирическое исследование сосредоточено на изучении взаимосвязей двух или более переменных.
ПРИМЕРЫ
Приведем два примера исследования влияния демонстра
ции сцен насилия по ТВ на агрессивность подростков.
1. Изучается взаимосвязь двух переменных, измеренных в количественной (ранговой или метрической) шкале: 1) «время просмотра телепередач с насилием»; 2) «агрессивность».
Читается как тау-Кендалла.
2. Изучается различие в агрессивности 2-х или более групп подростков, отличающихся длительностью просмотра телепередач с демонстрацией сцен насилия.
Во втором примере изучение различий может быть представлено как исследование взаимосвязи 2-х переменных, одна из которых — номинативная (длительность просмотра телепередач). И для этой ситуации также разработаны свои коэффициенты корреляции.
Любое исследование можно свести к изучению корреляций, благо изобретены самые различные коэффициенты корреляции для практически любой исследовательской ситуации. Но в дальнейшем изложении мы будем различать два класса задач:
Такое деление соответствует и логике построения популярных компьютерных статистических программ, в которых в меню Корреляции предлагаются три коэффициента (г-Пирсона, г-Спирмена и т-Кендалла), а для решения других исследовательских задач предлагаются методы сравнения групп.
ПОНЯТИЕ КОРРЕЛЯЦИИ
Взаимосвязи на языке математики обычно описываются при помощи функций, которые графически изображаются в виде линий. На рис. 6.1 изображено несколько графиков функций. Если изменение одной переменной на одну единицу всегда приводит к изменению другой переменной на одну и ту же величину, функция является линейной (график ее представляет прямую линию); любая другая связь — нелинейная. Если увеличение одной переменной связано с увеличением другой, то связь — положительная (прямая)-, если увеличение одной переменной связано с уменьшением другой, то связь — отрицательная (обратная). Если направление изменения одной переменной не меняется с возрастанием (убыванием) другой переменной, то такая функция — монотонная', в противном случае функцию называют немонотонной.
Функциональные связи, подобные изображенным на рис. 6.1, являются иде- ализациями. Их особенность заключается в том, что одному значению одной переменной соответствует строго определенное значение другой переменной. Например, такова взаимосвязь двух физических переменных — веса и длины тела (линейная положительная). Однако даже в физических экспериментах эмпирическая взаимосвязь будет отличаться от функциональной связи в силу неучтенных или неизвестных причин: колебаний состава материала, погрешностей измерения и пр.
Рис. 6.1. Примеры графиков часто встречающихся функций
В психологии, как и во многих других науках, при изучении взаимосвязи признаков из поля зрения исследователя неизбежно выпадает множество возможных причин изменчивости этих признаков. Результатом является то, что даже существующая в реальности функциональная связь между переменными выступает эмпирически как вероятностная (стохастическая): одному и тому же значению одной переменной соответствует распределение различных значений другой переменной (и наоборот). Простейшим примером является соотношение роста и веса людей. Эмпирические результаты исследования этих двух признаков покажут, конечно, положительную их взаимосвязь. Но несложно догадаться, что она будет отличаться от строгой, линейной, положительной — идеальной математической функции, даже при всех ухищрениях исследователя по учету стройности или полноты испытуемых. (Вряд ли на этом основании кому-то придет в голову отрицать факт наличия строгой функциональной связи между длиной и весом тела.)
Положительная связь Отрицательная связь
Линейная
Нелинейная монотонная
Итак, в психологии, как и во многих других науках, функциональная взаимосвязь явлений эмпирически может быть выявлена только как вероятностная связь соответствующих признаков. Наглядное представление о характере вероятностной связи дает диаграмма рассеивания — график, оси которого соответствуют значениям двух переменных, а каждый испытуемый представляет собой точку (рис. 6.2). В качестве числовой характеристики вероятностной связи используются коэффициенты корреляции.
г=-1
/•= О
/•=+0,87
г= О
Рис. 6.2. Примеры диаграмм рассеивания и соответствующих коэффициентов корреляции
Коэффициент корреляции — это количественная мера силы и направления вероятностной взаимосвязи двух переменных; принимает значения в диапазоне от —1 до +1.
Сила связи достигает максимума при условии взаимно однозначного соответствия: когда каждому значению одной переменной соответствует только одно значение другой переменной (и наоборот), эмпирическая взаимосвязь при этом совпадает с функциональной линейной связью. Показателем силы связи является абсолютная (без учета знака) величина коэффициента корреляции.
Направление связи определяется прямым или обратным соотношением значений двух переменных: если возрастанию значений одной переменной соответствует возрастание значений другой переменной, то взаимосвязь называется прямой (положительной); если возрастанию значений одной переменной соответствует убывание значений другой переменной, то взаимосвязь является обратной (отрицательной). Показателем направления связи является знак коэффициента корреляции.
КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ г-ПИРСОНА
г-Пирсона (Реагзоп г) применяется для изучения взаимосвязи двух метрических переменных, измеренных на одной и той же выборке. Существует множество ситуаций, в которых уместно его применение. Влияет ли интеллект на успеваемость на старших курсах университета? Связан ли размер заработной платы работника с его доброжелательностью к коллегам? Влияет ли настроение
школьника на успешность решения сложной арифметической задачи? Для ответа на подобные вопросы исследователь должен измерить два интересующих его показателя у каждого члена выборки. Данные для изучения взаимосвязи затем сводятся в таблицу, как в приведенном ниже примере.
ПРИМЕР 6.1
В таблице приведен пример исходных данных измерения двух показателей интеллекта (вербального и невербального) у 20 учащихся 8-го класса.
№ |
Вербальный 10 (х) |
Невербальный 10 (у) |
1 |
13 |
12 |
2 |
9 |
11 |
3 |
8 |
8 |
4 |
9 |
12 |
5 |
7 |
9 |
6 |
9 |
11 |
7 |
8 |
9 |
8 |
13 |
13 |
9 |
и |
9 |
10 |
12 |
10 |
11 |
8 |
9 |
12 |
9 |
8 |
13 |
10 |
10 |
14 |
10 |
12 |
15 |
12 |
10 |
16 |
10 |
10 |
17 |
8 |
11 |
18 |
9 |
10 |
19 |
10 |
11 |
20 |
11 |
13 |
Средние: |
9,8 |
10,4 |
Связь между этими переменными можно изобразить при помощи диаграммы рассеивания (см. рис. 6.3). Диаграмма показывает, что существует некоторая взаимосвязь измеренных показателей: чем больше значения вербального интеллекта, тем (преимущественно) больше значения невербального интеллекта.
Прежде чем дать формулу коэффициента корреляции, попробуем проследить логику ее возникновения, используя данные примера 6.1. Положение каждой /-точки (испытуемого с номером /) на диаграмме рассеивания относительно остальных точек (рис. 6.3) может быть задано величинами и знаками отклонений соответствующих значений переменных от своих средних величин: (х,— Мх) и (у^Му). Если знаки этих отклонений совпадают, то это свидетельствует в пользу положительной взаимосвязи (большим значениям
— Му= 10,4
Вербальный Ю
Рис. 6.3. Диаграмма рассеивания для данных примера 6.1
Мх= 9,8
по х соответствуют большие значения по у или меньшим значениям по х соответствуют меньшие значения по у).
ПРИМЕР
Для испытуемого № 1 отклонение от среднего по х и по у положительное, а для испытуемого № 3 и то и другое отклонения отрицательные. Следовательно, данные того и другого свидетельствуют о положительной взаимосвязи изучаемых признаков. Напротив, если знаки отклонений от средних по х и по у различаются, то это будет свидетельствовать об отрицательной взаимосвязи между признаками. Так, для испытуемого № 4 отклонение от среднего по х является отрицательным, по у — положительным, а для испытуемого № 9 — наоборот.
Таким образом, если произведение отклонений (х,— Мх) х (у, — Му) положительное, то данные /-испытуемого свидетельствуют о прямой (положительной) взаимосвязи, а если отрицательное — то об обратной (отрицательной) взаимосвязи. Соответственно, если х и у ъ основном связаны прямо пропорционально, то большинство произведений отклонений будет положительным, а если они связаны обратным соотношением, то большинство произведений будет отрицательным. Следовательно, общим показателем для силы и направления взаимосвязи может служить сумма всех произведений отклонений для данной выборки:
При прямо пропорциональной связи между переменными эта величина является большой и положительной — для большинства испытуемых отклонения совпадают по знаку (большим значениям одной переменной соответствуют большие значения другой переменной и наоборот). Если же х и у имеют обратную связь, то для большинства испытуемых большим значениям одной переменной будут соответствовать меньшие значения другой переменной, т. е. знаки произведений будут отрицательными, а сумма произведений в целом будет тоже большой по абсолютной величине, но отрицательной по знаку. Если систематической связи между переменными не будет наблюдаться, то положительные слагаемые (произведения отклонений) уравновесятся отрицательными слагаемыми, и сумма всех произведений отклонений будет близка к нулю.
Чтобы сумма произведений не зависела от объема выборки, достаточно ее усреднить. Но мера взаимосвязи нас интересует не как генеральный параметр, а как вычисляемая его оценка — статистика. Поэтому, как и для формулы дисперсии, в этом случае поступим так же, делим сумму произведений отклонений не на Ы, а на Ы— 1. Получается мера связи, широко применяемая в физике и технических науках, которая называется ковариацией (Соуапапсе)'.
^(х,-Мх)(у^Му)
СОУ„ = — .
* (N-1)
В психологии, в отличие от физики, большинство переменных измеряются в произвольных шкалах, так как психологов интересует не абсолютное значение признака, а взаимное расположение испытуемых в группе. К тому же ковариация весьма чувствительна к масштабу шкалы (дисперсии), в которой измерены признаки. Чтобы сделать меру связи независимой от единиц измерения того и другого признака, достаточно разделить ковариацию на соответствующие стандартные отклонения. Таким образом и была получена формула коэффициента корреляции К. Пирсона:
I (хгККу, ~му)
Гху
(6.1)
г*у =
(М-1)ахау
или, после подстановки выражении для ах и су:
;=1
р^(х(-Мх)2хЪ{у(-Му)2
Уравнение (6.1) является основной формулой коэффициента корреляции Пирсона. Эта формула вполне осмысленна, но не очень удобна для вычислений «вручную» или на калькуляторе. Поэтому существуют производные фор
мулы — более громоздкие по виду, менее доступные осмыслению, но упрощающие расчеты. Мы не будем их здесь приводить, так как один раз в жизни можно в учебных целях посчитать корреляцию Пирсона и по исходной формуле «вручную», а в дальнейшем для обработки реальных данных все равно придется воспользоваться компьютерными программами.
ПРИМЕР 6.2
Для расчета коэффициента корреляции воспользуемся данными примера 6.1 о вербальном и невербальном 10, измеренном у 20 учащихся 8-го класса. К двум столбцам с исходными данными добавляются еще 5 столбцов для дополнительных расчетов, и внизу — строка сумм.
№ |
X |
У |
(х,-Мх) |
(У,-Му) |
(х,-Мх)2 |
(х- мм- м,) |
|
1 |
13 |
12 |
3,2 |
1,6 |
10,24 |
2,56 |
5,12 |
2 |
9 |
11 |
-0,8 |
0,6 |
0,64 |
0,36 |
-0,48 |
3 |
8 |
8 |
-1,8 |
-2,4 |
3,24 |
5,76 |
4,32 |
4 |
9 |
12 |
-0,8 |
1,6 |
0,64 |
2,56 |
-1,28 |
5 |
7 |
9 |
-2,8 |
-1,4 |
7,84 |
1,96 |
3,92 |
6 |
9 |
11 |
-0,8 |
0,6 |
0,64 |
0,36 |
-0,48 |
7 |
8 |
9 |
— 1,8 |
-1,4 |
3,24 |
1,96 |
2,52 |
8 |
13 |
13 |
3,2 |
2,6 |
10,24 |
6,76 |
8,32 |
9 |
И |
9 |
1,2 |
-1,4 |
1,44 |
1,96 |
-1,68 |
10 |
12 |
10 |
2,2 |
-0,4 |
4,84 |
0,16 |
-0,88 |
11 |
8 |
9 |
-1,8 |
-1,4 |
3,24 |
1,96 |
2,52 |
12 |
9 |
8 |
-0,8 |
-2,4 |
0,64 |
5,76 |
1,92 |
13 |
10 |
10 |
0,2 |
-0,4 |
0,04 |
0,16 |
-0,08 |
14 |
10 |
12 |
0,2 |
1,6 |
0,04 |
2,56 |
0,32 |
15 |
12 |
10 |
2,2 |
-0,4 |
4,84 |
0,16 |
-0,88 |
16 |
10 |
10 |
0,2 |
-0,4 |
0,04 |
0,16 |
-0,08 |
17 |
8 |
11 |
-1,8 |
0,6 |
3,24 |
0,36 |
-1,08 |
18 |
9 |
10 |
-0,8 |
-0,4 |
0,64 |
0,16 |
0,32 |
19 |
10 |
11 |
0,2 |
0,6 |
0,04 |
0,36 |
0,12 |
20 |
11 |
13 |
1,2 |
2,6 |
1,44 |
6,76 |
3,12 |
Е |
196 |
208 |
0,00 |
0,00 |
57,2 |
42,8 |
25,6 |
На первом шаге подсчитываются суммы всех значений одного, затем — другого признака для вычисления соответствующих средних значений А/< и Му\ Мх = 9,8; Му = 10,4.
Далее для каждого испытуемого вычисляются отклонения от среднего: для Хи для У. Каждое отклонение от среднего возводится в квадрат. В последнем столбике записывается результат перемножения двух отклонений от среднего для каждого испытуемого.
Суммы отклонений от среднего для каждой переменной должны быть равны нулю (с точностью до погрешности вычислений). Сумма квадратов отклонений необходима для вычисления стандартных отклонений по известной формуле (4.7):
[512 [42^ о =. =1,735; о =, =1,501.
* V 19 у \ 19
Сумма произведений отклонений дает нам значение числителя, а произведение стандартных отклонений и (А^— 1) — значение знаменателя формулы коэффициента корреляции:
г = ^ = 0,517.
1,735-1,501-19
Если значения той и другой переменной были преобразованы в г-значения по формуле:
х, ~МХ у,-М
2 =:—: 7 = —
® х Ъу
то формула коэффициента корреляции /--Пирсона выглядит проще:
N
Е ^х, N-1 '
Отметим еще раз: на величину коэффициента корреляции не влияет то, в каких единицах измерения представлены признаки. Следовательно, любые линейные преобразования признаков (умножение на константу, прибавление константы: у1 = хр + а) не меняют значения коэффициента корреляции. Исключением является умножение одного из признаков на отрицательную константу: коэффициент корреляции меняет свой знак на противоположный.
На рис. 6.2 приведены примеры диаграмм рассеивания для различных значений коэффициента корреляции. Обратите внимание: на последнем рисунке визуально наблюдается нелинейная взаимосвязь между переменными, однако коэффициент корреляции равен нулю. Таким образом, коэффициент корреляции Пирсона есть мера прямолинейной взаимосвязи; он не чувствителен к криволинейным связям.
КОРРЕЛЯЦИЯ, РЕГРЕССИЯ И КОЭФФИЦИЕНТ ДЕТЕРМИНАЦИИ
Корреляция Пирсона есть мера линейной связи между двумя переменными. Она позволяет определить, насколько пропорциональна изменчивость двух переменных. Если переменные пропорциональны друг другу, то графически связь между ними можно представить в виде прямой линии с положительным (прямая пропорция) или отрицательным (обратная пропорция) наклоном. Кроме того, если известна пропорция между переменными, заданная уравнением графика прямой линии:
у,= Ьх1 + а,
то по известным значениям переменной А'можно точно предсказать значения переменной У.
На практике связь между двумя переменными, если она есть, является вероятностной и графически выглядит как облако рассеивания эллипсоидной формы. Этот эллипсоид, однако, можно представить (аппроксимировать) в виде прямой линии, или линии регрессии. Линия регрессии (Ке$гетоп Ыпе) — это прямая, построенная методом наименьших квадратов: сумма квадратов расстояний (вычисленных по оси У) от каждой точки графика рассеивания до прямой является минимальной:
/ <
где у,- — истинное /-значение У, у{ — оценка /-значения Упри помощи линии (уравнения) регрессии, е, = у,— у,- — ошибка оценки (см. рис. 6.4). Уравнение регрессии имеет вид:
У1=Ьх1 + а, (6.2)
где Ь — коэффициент регрессии (Ке&гезз'юп Сое#1с1еп1), задающий угол наклона прямой; а — свободный член, определяющий точку пересечения прямой оси У.
Если известны средние, стандартные отклонения и корреляция гху, то сумма квадратов ошибок минимальна, если:
ст
Ь = г*у~Г' а = Му~ЬМх. (6.3)
Таким образом, если на некоторой выборке измерены две переменные, которые коррелируют друг с другом, то, вычислив коэффициенты регрессии,
Рис. 6.4. Диаграмма рассеивания и линия регрессии (е, — ошибка оценки для одного из
объектов)
3,5
у>—
3,0 2,5 2,0 1,5
5,5 5,0 4,5
мы получаем принципиальную возможность предсказания неизвестных значений одной переменной (У— «зависимая переменная») по известным значениям другой переменной (X — «независимая переменная»). Например, предсказываемой «зависимой переменной» может быть успешность обучения, а предиктором, «независимой переменной» — результаты вступительного теста.
С какой степенью точности возможно такое предсказание?
Понятно, что наиболее точным предсказание будет, если \гху\ = 1. Тогда каждому значению Сбудет соответствовать только одно значение У, а все ошибки оценки будут равны 0 (все точки на графике рассеивания будут лежать на прямой регрессии). Если же гху = 0, то Ь - 0 и у, = Му, т. е. при любом Xоценка переменной Кбудет равна ее среднему значению и предсказательная ценность регрессии ничтожна.
Особое значение для оценки точности предсказания имеет дисперсия оценок зависимой переменной. Отметим, что дисперсия оценок равна нулю, если гху = 0 — все оценки равны среднему значению, прямая регрессии параллельна оси X. А если \гху\ = 1, то дисперсия оценок равна истинной дисперсии переменной У, достигая своего максимума:
0<а?<а2.
По сути, дисперсия оценок зависимой переменной У— это та часть ее полной дисперсии, которая обусловлена влиянием независимой переменной X.
Неизвестную дисперсию оценок К можно выразить через другие, известные статистики, зная рассмотренные ранее свойства дисперсии:
_2 _2 д2_2
=аЬх,+а=аЬх, =Ь ах, ,
так как прибавление константы а к каждому значению переменной не меняет дисперсию, а умножение на константу Ь — увеличивает дисперсию в Ь2 раз. Подставляя в формулу выражение для Ъ из (6.2) получаем:
2
2 _ 2 У/ 2 _ 2 2 °у, - Гху~Тах, - гхуау, , ИЛИ
(6.4)
У1
Иначе говоря, отношение дисперсии оценок зависимой переменной к ее истинной дисперсии равно квадрату коэффициента корреляции.
Выражение (6.4) дает еще один вариант интерпретации корреляции. Квадрат коэффициента корреляции (К. §яиаге) зависимой и независимой переменных представляет долю дисперсии зависимой переменной, обусловленной влиянием независимой переменной, и называется коэффициентом детерминации. Коэффициент детерминации гху, таким образом, показывает, в какой степени изменчивость одной переменной обусловлена (детерминирована) влиянием другой переменной.
ПРИМЕР
В большинстве исследований взаимосвязи 10 и успеваемости в школе корреляции этих показателей не превышают 0,5—0,7, т. е. коэффициент детерминации достигает величин 0,25—0,49. Иными словами, индивидуальная изменчивость (дисперсия) среднего балла успеваемости может быть предсказана по результатам тестирования 10 не более чем на 25—49%. Означает ли это, что успешность обучения не более чем на 25—49% зависит от интеллекта? Ответ зависит от того, в какой мере средний балл отметок отражает успешность обучения, а тест 10 — интеллектуальные способности учащегося. Во всяком случае, этот пример демонстрирует явно не высокую эффективность двумерной регрессии в деле практического предсказания7.
Коэффициент детерминации обладает важным преимуществом по сравнению с коэффициентом корреляции. Корреляция не является линейной функцией связи между двумя переменными. Поэтому, в частности, среднее арифметическое коэффициентов корреляции для нескольких выборок не совпадает с корреляцией, вычисленной сразу для всех испытуемых из этих выборок (т. е. коэффициент корреляции не аддитивен). Напротив, коэффициент детерминации отражает связь линейно и поэтому является аддитивным: допускается его усреднение для нескольких выборок.
Дополнительную информацию о силе связи дает значение коэффициента корреляции в квадрате — коэффициент детерминации г2: это часть дисперсии одной переменной, которая может быть объяснена влиянием другой переменной. В отличие от коэффициента корреляции г2 линейно возрастает с увеличением силы связи. На этом основании можно ввести три градации величин корреляции по силе связи:
г< 0,3 — слабая связь (менее 10% от общей доли дисперсии);
0,3 < г < 0,7 — умеренная связь (от 10 до 50% от общей доли дисперсии);
г > 0,7 — сильная связь (50% и более от общей доли дисперсии).
ЧАСТНАЯ КОРРЕЛЯЦИЯ
Очень часто две переменные коррелируют друг с другом только за счет того, что обе они согласованно меняются под влиянием некоторой третьей переменной. Иными словами, на самом деле связь между соответствующими свойствами отсутствует, но проявляется в статистической взаимосвязи (корреляции) под влиянием общей причины.
ПРИМЕР
Общей причиной изменчивости двух переменных («третьей переменной») можетяв- ляться возраст при изучении взаимосвязи различных психологических особенностей в группе детей разного возраста. Предположим, что изучается взаимосвязь между зрелостью моральных суждений — Хи скоростью чтения — У. Но в распоряжении
исследователя имеется лишь выборка из 45 детей разного возраста — от 8 до 14 лет (переменная 2— возраст). Если будет получена существенная положительная корреляция между Хи У, например гц. = 0,54, то о чем это будет свидетельствовать? Осторожный исследователь вряд ли сделает однозначный вывод о том, что зрелость моральных суждений непосредственно связана со скоростью чтения. Скорее всего, дело втом, что и зрелость моральных суждений, и скорость чтения повышаются с возрастом. Иными словами, возраст является причиной согласованной (прямо пропорциональной) изменчивости и зрелости моральных суждений, и скорости чтения.
Для численного определения степени взаимосвязи двух переменных при условии исключения влияния третьей применяют коэффициент частной корреляции (РагИа1 СогггШ'юп). Для вычисления частной корреляции достаточно знать три коэффициента корреляции /--Пирсона между переменными X, У и У-(гху, гх, и гУ1)\
г — г г
'ху 'хг'уг
г
'ху-г.
(6.5)
7(1-/■«)(!-/-Д)
где /-ху_, — частная корреляция Хи У при постоянном 2(или с учетом 2).
Частная корреляция гху^ равна г^, при любом фиксированном значении 2 (в том случае, если ^линейно коррелирует с Хи У). Например, если значение частной корреляции скорости чтения Xи зрелости моральных суждений Ус учетом зозраста 2Гравно 0,2 (гху_г — 0,2) и возраст линейно коррелирует и с Хи с У, то с любой группе детей одного и того же возраста /убудет тоже равно 0,2.
ПРИМЕР 6,3
Один исследователь решил сопоставить антропометрические и психологические данные исследования довольно большой группы детей. Каково же было его изумление, когда обнаружилась существенная положительная корреляция между скоростью решения арифметических задач и размером стопы: гху = 0,42. Оказалось, однако, что дети были разного возраста. Корреляция размера стопы с возрастом составила гху= 0,7, а корреляция скорости решения арифметических задач с возрастом гуг = 0,6. Эти данные позволяют выяснить, взаимосвязаны ли размер стопы и скорость решения арифметических задач с учетом возраста (при условии, что возраст остается неизменным). Для этого необходимо вычислить частный коэффициент корреляции между размером стопы Хи скоростью решения арифметических задач У(при фиксированном возрасте 2):
0,42-0,7-0,6
■ = 0
0,72)(1 -0,62)
Таким образом, размер стопы и скорость решения арифметических задач коррелируют исключительно за счет согласованности возрастной изменчивости этих показателей: частная корреляция между ними (с учетом возраста) равна нулю. И если мы возьмем группу детей одного и того же возраста, то корреляция размера стопы и скорости решения арифметических задач будет равна нулю.
Следует быть особенно осторожным, пытаясь дать интерпретацию частной корреляции с позиций причинности. Например, если ^коррелирует и с Хи с У, а частная корреляция гху_, близка к нулю, из этого не обязательно следует, что именно ^является общей причиной для Хи V.
РАНГОВЫЕ КОРРЕЛЯЦИИ
Если обе переменные, между которыми изучается связь, представлены в порядковой шкале, или одна из них — в порядковой, а другая — в метрической, то применяются ранговые коэффициенты корреляции: /--Спирмена или х-Кенделла. И тот, и другой коэффициент требует для своего применения предварительного ранжирования обеих переменных.
Коэффициент корреляции г-Спирмена
(6.6)
Если члены группы численностью ^были ранжированы сначала по переменной X, затем — по переменной У, то корреляцию между переменными Хи У можно получить, просто вычислив коэффициент г-Пирсона для двух рядов рангов. При условии отсутствия связей в рангах (т. е. отсутствия повторяющихся рангов) по той и другой переменной, формула для /--Пирсона может быть существенно упрощена в вычислительном отношении и преобразована в формулу, известную как г-Спирмена:
62Х2
N{N'-1)
где с/, — разность рангов для испытуемого с номером /.
Коэффициент корреляции г-Спирмена (Зреагтап'з гЬо) равен коэффициенту корреляции /--Пирсона, вычисленному для двух предварительно ранжированных переменных.
ПРИМЕР 6.4
Предположим, для каждого из 12 учащихся одного класса известно время решения тестовой арифметической задачи в секундах (X) и средний балл отметок по математике за последнюю четверть (У).
№ |
X |
У |
Ранги X |
Ранги У |
4 |
4 |
1 |
122 |
4,7 |
7 |
2 |
5 |
25 |
2 |
105 |
4,5 |
10 |
4 |
6 |
36 |
3 |
100 |
4,4 |
И |
5 |
6 |
36 |
4 |
145 |
3,8 |
5 |
9 |
-4 |
16 |
№ |
X |
У |
Ранги X |
Ранги У |
4 |
42 |
5 |
130 |
3,7 |
6 |
10 |
-4 |
16 |
6 |
90 |
4,6 |
12 |
3 |
9 |
81 |
7 |
162 |
4,0 |
3 |
8 |
-5 |
25 |
8 |
172 |
4,2 |
1 |
6 |
-5 |
25 |
9 |
120 |
4,1 |
8 |
7 |
1 |
1 |
10 |
150 |
3,6 |
4 |
11 |
-7 |
49 |
11 |
170 |
3,5 |
2 |
12 |
-10 |
100 |
12 |
112 |
4,8 |
9 |
1 |
8 |
64 |
2 |
- |
- |
78 |
78 |
0 |
474 |
Для расчета корреляции г-Спирмена сначала необходимо ранжировать учащихся по той и другой переменной. После ранжирования можно проверить его правильность: сумма рангов должна быть равна N(N+ 1)/2. Затем для каждого испытуемого надо вычислить разность рангов (сумма разностей рангов должна быть равна 0). После этого для каждого испытуемого вычисляется квадрат разности рангов — результат приведен в последнем столбце таблицы. Сумма квадратов разностей рангов равна 474. Подставляем известные значения в формулу 6.6:
6-474
г = 1 = -0,657 .
12(144-1)
Получена умеренная отрицательная связь между успеваемостью по математике и временем решения арифметической задачи.
Отметим: то же значение корреляции было бы получено при использовании формулы /--Пирсона непосредственно к рангам Хи У. Применяя же формулу /--Пирсона к исходным значениям Хи У, мы получим гху — -0,692.
Коэффициент корреляции т-Кендалла
Альтернативу корреляции Спирмена для рангов представляет корреляция х-Кендалла. В основе корреляции, предложенной М. Кендаллом, лежит идея о том, что о направлении связи можно судить, попарно сравнивая между собой испытуемых: если у пары испытуемых изменение по А" совпадает по направлению с изменением по У, то это свидетельствует о положительной связи, если не совпадает — то об отрицательной связи.
В примере 6.3 данные испытуемых 1 и 2 свидетельствуют об отрицательной связи — мы видим инверсию: по переменной Ху второго испытуемого ранг больше, а по переменной У— меньше. Данные испытуемых 2 и 3, напротив, демонстрируют со- впадение направления изменения переменных.
Корреляция т-Кендалла есть разность относительных частот совпадений и инверсий при переборе всех пар испытуемых в выборке:
т = Р{р)-Р(д),
где Р{р) и Р(<7) — относительные частоты, соответственно, совпадений и инверсий. Всего в выборке численностью /^существует ЩИ— 1)/2 всех возможных пар испытуемых. Следовательно,
т- , (6.7)
N(N-1)/!
где Р — число совпадений, 0 — число инверсий, а (Р+ 0 = 7У(АГ- 1)/2. Формулу 6.7 можно представить и в ином виде:
Р + 0 N(N-1) N{N-1) При подсчете т-Кендалла «вручную» данные сначала упорядочиваются по переменной X. Затем для каждого испытуемого подсчитывается, сколько раз его ранг по доказывается меньше, чем ранг испытуемых, находящихся ниже. Результат записывается в столбец «Совпадения». Сумма всех значений столбца «Совпадения» и есть Р — общее число совпадений, подставляется в формулу 6.8. для вычисления т-Кендалла.
ПРИМЕР 6.5
Вычислим т-Кендалла для данных из примера 6.4. Сначала предварительно упорядочиваем испытуемых по переменной X. Затем подсчитываем число совпадений и инверсий для каждого испытуемого, сравнивая по У его ранг с рангами испытуемых, находящихся под ним. Так, для первого испытуемого ранг по У равен 6, и 6 испытуемых, находящихся ниже него, имеют по У более высокий ранг: в столбец «Совпадения» записываем 6. Для третьего по счету испытуемого ранг по У равен 8, трое испытуемых ниже него имеют более высокий ранг, значит, в столбец «Совпадения» записываем 3, и т. д.
№ |
Ранги X |
Ранги У |
Совпадения |
Инверсии |
8 |
1 |
6 |
6 |
5 |
11 |
2 |
12 |
0 |
10 |
7 |
3 |
8 |
3 |
6 |
10 |
4 |
11 |
0 |
8 |
4 |
5 |
9 |
1 |
6 |
5 |
6 |
10 |
0 |
6 |
1 |
7 |
2 |
4 |
1 |
9 |
8 |
7 |
0 |
4 |
12 |
9 |
1 |
3 |
0 |
2 |
10 |
4 |
1 |
1 |
3 |
11 |
5 |
0 |
1 |
6 |
12 |
3 |
0 |
0 |
Р= 18 |
2=48 |
Проверяем правильность подсчета Р и (): Р+ 0— 66; N{N-1)/! = 12x11/2 = I
18-48 ....
т = = -0,455.
66
Для более полной интерпретации полезны соотношения между величиной т-Кендалла и вероятностью отдельно совпадений и инверсий:
- о/ ч 1 + т
вероятность совпадении Р(Р) = ——;
1-х
вероятность инверсий Р(д) = 1-Р(р) = --- ■
Так, т = 0,5 значит, что вероятность совпадений равна 0,75, а вероятность инверсий — 0,25, то есть при сравнении объектов друг с другом прямо пропорциональное соотношение (например, роста и веса) встречается в 3 раза чаще, чем обратно пропорциональное соотношение. Такая интерпретация кажется более понятной, чем, например, интерпретация корреляции Пирсона г= 0,5: «25% изменчивости в весе могут быть объяснены различиями в росте».
т-Кендалла кажется более простым в вычислительном отношении. Однако при возрастании численности выборки, в отличие от г-Спирмена, объем вычислений т-Кендалла возрастает не пропорционально, а в геометрической прогрессии. Так, при Аг= 12 необходимо перебрать 66 пар испытуемых, а при И= 48 — уже 1128 пар, т. е. объем вычислений возрастает более, чем в 17 раз.
Отметим важную особенность ранговых коэффициентов корреляции. Для метрической корреляции г-Пирсона значениям +1 или -1 соответствует прямая или обратная пропорция между переменными, что графически представляет собой прямую линию. Максимальным по модулю ранговым корреляциям (+1, —1) вовсе не обязательно соответствуют строгие прямо или обратно пропорциональные связи между исходными переменными А"и У: достаточна лишь монотонная функциональная связь между ними. Иными словами, ранговые корреляции достигают своего максимального по модулю значения, если большему значению одной переменной всегда соответствует большее значение другой переменной (+1) или большему значению одной переменной всегда соответствует меньшее значение другой переменной и наоборот (—1).
Проблема связанных (одинаковых) рангов
В измерениях часто встречаются одинаковые значения. При их ранжировании возникает проблема связанных рангов (Лей Капкз). В этом случае действует особое правило ранжирования: объектам с одинаковыми значениями
=Шг
приписывается один и тот же, средний ранг. Например, когда эксперт
не может установить различие между двумя лучшими образцами товара, им приписывается одинаковый ранг: (1 + 2)/2 = 1,5. Это сохраняет неизменной сумму рангов для выборки объемом К. уУ(Аг+ 1)/2.
При наличии одинаковых (связанных) рангов формулы ранговой корре
ляции Спирмена (6.6) и Кендалла (6.7 и 6.8) не подходят. Хотя сумма рангов и не меняется, но изменчивость данных становится меньше. Соответственно, уменьшается возможность оценить степень связи между измеренными свойствами.
При использовании корреляции Спирмена в случае связанных рангов возможны два подхода:
О если связей немного (менее 10% для каждой переменной), то вычислить г-Спирмена приближенно по формуле 6.6; □ при большем количестве связей применить к ранжированным данным классическую формулу /--Пирсона 6.1 — это всегда позволит определить ранговую корреляцию независимо от наличия связей в рангах.
При использовании корреляции т-Кендалла в случае наличия связанных рангов в формулу вносятся поправки, и тогда получается общая формула для вычисления т коэффициента корреляции хь-Кендалла (КепёаИ'з 1аи-Ь) независимо от наличия или отсутствия связей в рангах:
Та= РЧ1 5
где Хх -(1 -1) (' ~~ количество групп связей по Х,^ — численность
каждой группы); к =(1 ^ ~ количество групп связей по У,/,—
численность каждой группы').
ПРИМЕР 6.6
Супруги X и У ранжировали 8 жизненных ценностей по степени предпочтения. Данные представлены в таблице:
Ценности |
Ранги X |
Ранги У |
Р (совпадения) |
<2 (инверсии) |
Здоровье |
1 |
1 |
7 |
0 |
Любовь |
2 |
3 |
4 |
0 |
Богатство |
4 |
3 |
3 |
0 |
Свобода |
4 |
3 |
3 |
0 |
Мудрость |
4 |
5 |
3 |
0 |
Познание |
6 |
7 |
0 |
0 |
Развитие |
7 |
7 |
0 |
0 |
Творчество |
8 |
7 |
0 |
0 |
2 = 20 |
В качестве меры согласованности предпочтений супругов вычислим корреляцию т6-Кендалла, так как наблюдаются связи в рангах: одна группа из трех рангов по Хн две группы по три ранга по У.
Обратите внимание на подсчет совпадений для объектов, попадающих в «связки». Например, для объекта «Богатство» пропускаются два ниже находящихся объекта, как имеющие одинаковые с ним ранги по X.
Подсчитаем поправочные коэффициенты: Кх= (1/2)[(3(3 - 1)] = 3; Ку= (1/2)[3(3 - — 1) + 3(3 — 1)] = 6. Подставим полученные значения в формулу 6.9:
2°-° поо
т„ = . = 0,853.
7(8 х 7/2)-3 7(8x7/2) -6
Заметим, что инверсии отсутствуют, и если бы связей в рангах не было, то корреляция была бы строго прямой (равна 1).
КОРРЕЛЯЦИЯ БИНАРНЫХ ДАННЫХ
Как отмечалось ранее, если одна из двух переменных представлена в номинативной шкале, а другая — в числовой (ранговой или метрической), то связь между этими переменными лучше изучать путем сравнения групп по уровню выраженности числовой переменной.
ПРИМЕР
Предположим, исследуется связь количества пропущенных лекций студентами и курса обучения (с 1-го по 5-й). Первая переменная — метрическая, а вторая — номинативная. Связь между этими переменными может быть изучена путем сравнения разных курсов по количеству пропущенных лекций (по средним значениям). Если будут обнаружены различия между курсами, то посещаемость лекций связана с курсом обучения, в противном случае — связи нет.
То же касается проблемы изучения связи между двумя номинативными переменными. Хотя и для этого случая существуют коэффициенты корреляции (К— Чупрова, С — Пирсона), но возможность их интерпретации весьма ограничена, в частности потому, что они отражают лишь силу связи, но не ее направление. Поэтому и в этом случае проблему связи между двумя номинативными переменными лучше изучать путем сравнения градаций одной переменной по распределению другой переменной.
ПРИМЕР
Предположим, исследуется связь агрессивности учащихся (три градации: низкая, средняя, высокая) и образования их родителей (среднее, высшее техническое, высшее гуманитарное). Результаты исследования связей двух номинативных переменных обычно представляются в виде таблицы сопряженности:
Агрессивность |
Образование родителей |
||
Среднее |
Высш. технич. |
Высш. гуманит. |
|
Низкая |
15 |
10 |
12 |
Средняя |
18 |
15 |
14 |
Высокая |
10 |
8 |
7 |
Связь между этими переменными может быть изучена путем сравнения распределений учащихся по степени агрессивности для разных градаций образования родителей (или, что то же самое, путем сравнения распределения образования родителей для разных градаций степени агрессивности учащихся).
Исключением можно считать случай изучения связи двух бинарных переменных. Бинарная переменная имеет только две градации, обычно обозначаемые как О и 1. Примеры таких переменных: пол (мужской, женский), образование (среднее, высшее), тревожность (низкая, высокая), успешность (низкая, высокая) и т. д.
При изучении связей между бинарными переменными обычно строят че- тырехклеточные таблицы сопряженности:
Таблица 6.1
Таблица сопряженности 2x2
Признак X |
Итог |
|||
0 |
1 |
|||
Признак У |
0 |
а |
Ъ |
а + Ь |
1 |
с |
с1 |
с+ с1 |
|
Итог |
а + с |
Ь + Л |
N |
В этом случае допустимо применение г-Пирсона (формула 6.1) непосредственно к исходным данным — двум бинарным переменным, принимающим значение 0 или 1, измеренным для каждого члена выборки численностью N. Результат применения г-Пирсона к двум бинарным переменным называется «фи- коэффициентом сопряженности» {РЫ). Если данные представлены в четырех- клеточпой таблице сопряженности, то применяется формула, существенно упрощающая расчеты, но дающая аналогичный результат:
ай-Ъс , „
Ф= , —, (6.Ю)
а + Ь)(с + с!)(а + с)(Ь + с1)
где а, Ь, с, й соответствуют обозначениям в четырехклеточной таблице 6.1.
ПРИМЕР 6.7
Исследовалась связь семейного положения студенток (X: 0 — холостая, 1 — замужем) и их академической успеваемости (У: 0 — закончила вуз, 1 — отчислена). В распоряжении исследователя есть данные для 12 студенток:
№ |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
X |
0 |
1 |
0 |
0 |
1 |
1 |
0 |
1 |
0 |
0 |
1 |
0 |
У |
0 |
1 |
1 |
0 |
1 |
0 |
0 |
1 |
1 |
0 |
1 |
0 |
Таблица сопряженности для этих данных:
X |
Итог |
|||
0 |
1 |
|||
У |
0 |
5 |
1 |
6 |
1 |
2 |
4 |
6 |
|
Итог |
7 |
5 |
12 |
Вычислим ф-коэффициент сопряженности:
5-4-1-2 псп„ <р=-, - = 0,507. /6-6-7-5
Получена умеренная положительная взаимосвязь: холостые студентки чаще заканчивают вуз, а замужние — чаще отчисляются. Отметим, что тот же самый результат был бы получен при применении формулы /--Пирсона непосредственно к исходным данным.
Итак, ф-коэффициент есть просто /--Пирсона, вычисленный для бинарных данных, а формула 6.10 алгебраически эквивалентна формуле 6.1. Следовательно, интерпретация ср-коэффициента подобна интерпретации /--Пирсона. Но использование ср-коэффициента существенно ограничено. Чем больше асимметрия распределения 0 и 1 по каждой переменной, тем менее точно ф-коэффициент отражает связь между бинарными переменными. Иначе говоря, применение ф-коэффициента требует приблизительного равенства количества 0 и 1 по каждой переменной.
ВЕЛИЧИНА КОРРЕЛЯЦИИ И СИЛА СВЯЗИ
Коэффициенты корреляции были специально разработаны для численного определения силы и направления связи между двумя свойствами, измеренными в числовых шкалах (метрических или ранговых). Как уже упоминалось, максимальной силе связи соответствуют значения корреляции +1 (строгая прямая или прямо пропорциональная связь) и —1 (строгая обратная или обратно пропорциональная связь), отсутствию связи соответствует корреляция, равная нулю. Дополнительную информацию о силе связи дает значение коэффициента детерминации г2: это часть дисперсии одной переменной, которая может быть объяснена влиянием другой переменной.
Однако в ряде случаев разные коэффициенты корреляции имеют различную эффективность, а иногда все они оказываются нечувствительными к связям.
Выбросы и отклонения распределений от нормальности
Выбросы — это экстремально большие или малые значения признака. В наиболее существенной степени выбросы влияют на корреляцию /--Пирсона, так как величина этого коэффициента прямо пропорциональна отклонению значения переменной от среднего.
ПРИМЕР 6.8
Воспользуемся данными из примера 6.1 с показателями вербального и невербального интеллекта, измеренного у 20 учащихся 8-го класса (г = 0,517). Добавим еще одно наблюдение: х2\ — 3,у21 = 16 (см. рис. 6.5). Новое значение/--Пирсона для всех N—21 теперь будет равно г= —0,124.
18
— выброс
16-
д 14-
>5
л
X
л
□ □
□ □ о □ □
о. ф
ш ш
8-
6
2 4 6 8 10 12 14
Вербальный Ю
Рис. 6.5. Демонстрация влияния экстремальных значений признаков («выброса») на коэффициент корреляции Пирсона
Пример 6.8 демонстрирует, что даже одно наблюдение с экстремально большими или малыми значениями переменных может изменить знак корреляции на противоположный. Точно так же немногочисленные выбросы могут обусловить и появление корреляции.
Существенно меньшему влиянию выбросов подвержены ранговые корреляции. Поэтому один из способов борьбы с выбросами — переход к рангам и применение ранговых коэффициентов корреляции.
Для примера 6.8 ранговые коэффициенты корреляции (Спирмена и Кендалла) для первых 20 испытуемых (без выброса) составляют, соответственно: г, = 0,505; х = 0,390. При добавлении выбросов: г5 = 0,294; т = 0,239. Значения корреляций уменьшилось, но не столь существенно, как Г-Пирсона.
Другой подход к выбросам подразумевает «чистку» данных. Можно для каждой переменной установить определенное ограничение на диапазон ее изменчивости. Например, исключать те наблюдения, которые выходят за пределы диапазона М±2о (или даже М± 1,5а).
н г"
Часто такая «чистка» совершенно необходима. Например, при исследовании времени реакции, когда основная масса наблюдений находится в диапазоне 250-700 мс, исключение нескольких «странных» значений меньше 50 мс и больше 1000 мс может существенно изменить общую картину.
По сути, наличие выбросов означает отклонение распределений одной или обеих переменных от нормального вида. В общем случае, если распределения переменных сильно скошены (асимметричны), это может существенно снижать значение корреляции даже при сильной связи между соответствующими свойствами или, наоборот, обусловить появление «ложной» корреляции. Особенно сильно асимметричность распределений влияет на г-Пирсона. Поэтому при существенном отклонении формы распределения хотя бы одной переменной от нормального вида желательно перейти к рангам и воспользоваться ранговым коэффициентом корреляции.
Влияние «третьей» переменной
Иногда корреляция между двумя переменными обусловлена не связью между соответствующими свойствами, а влиянием некоторой общей причины совместной изменчивости этих переменных, которая зачастую выпадает из поля зрения исследователя. Эта общая причина может быть измерена как некоторая «третья» переменная, представленная либо в номинативной шкале, либо в количественной (ранговой или метрической) шкале.
Если истинная причина корреляции представляет собой номинативную переменную, то это проявляется в характерной неоднородности выборки: в ней можно обнаружить различные группы, для которых согласованно меняются средние двух переменных, в то время как внутри групп эти переменные не коррелируют. Если подобное явление возможно и существует способ содержательно интерпретируемого деления выборки на группы, необходимо вычислить корреляцию не только для всей выборки, но и для каждой группы в отдельности.
ПРИМЕР
Если мы возьмем достаточно большую группу людей — мужчин и женщин, то обнаружим существенную отрицательную корреляцию роста и длины волос: чем больше рост, тем короче волосы. Однако, рассматривая график рассеивания роста и длины волос с выделением групп мужчин и женщин, мы обнаружим истинную причину этой корреляции — пол (рис. 6.6). Корреляции роста и длины волос отдельно для мужчин и отдельно для женщин будут близки к нулю.
Другой случай «ложной» корреляции — когда «третья» переменная может быть представлена в числовой шкале.
ПРИМЕР
Число церквей и количество увеселительных заведений в городах, как известно, сильно коррелируют, так же, впрочем, как рост и навык чтения у детей. Нетрудно
Пол |
|
мужской |
|
V |
V— женский |
V7 |
|
V |
|
V |
|
V |
|
V |
|
V • ц |
|
• |
• |
• |
• |
• |
|
• |
18 16
14
150 160 170 180 190
Рост
Т 1 г
Рис. 6.6. График рассеивания для роста и длины волос. Темные точки — мужчины, светлые треугольники — женщины
догадаться, что в первом случае «третьей» переменной является численность городского населения, а во втором — возраст детей. (См. также пример 6.3 из раздела
«Частная корреляция».)
Если истинная причина корреляции между двумя переменными Хи У измерена как количественная переменная 2, то предположение о том, что именно она является причиной корреляции, можно проверить, вычислив частную корреляцию гху_г по формуле 6.5. Если частная корреляция Хи Ус учетом 2 (гху-г) существенно меньше г^, то весьма вероятно, что именно ^является истинной причиной корреляции Хи У
Следует отметить, что за редким исключением факт наличия или отсутствия корреляции может быть объяснен влиянием некоторой «третьей» переменной, упущенной из поля зрения исследователя. Таким образом, всегда остается возможность альтернативной интерпретации обнаруженной корреляции.
Нелинейные связи
Еще одним источником низкой эффективности корреляций являются возможный нелинейный характер связи между переменными. То, какой характер имеет связь между переменными, можно заметить, рассматривая график двумерного рассеивания. Это свидетельствует о важности визуального анализа связи с помощью таких графиков во всех случаях применения корреляций.
ш Л
110 8
6
4
К отклонениям от прямолинейной зависимости любого рода наиболее чувствителен коэффициент корреляции г-Пирсона. Однако если нелинейная
связь оказывается монотонной, то возможен переход к рангам и применение ранговых корреляций.
Довольно часто в исследованиях встречаются немонотонные связи — когда связь меняет свое направление (с прямого на обратное, или наоборот) при увеличении или уменьшении значений одной из переменной.
ПРИМЕРЫ
Наиболее типичный пример — это связь тревожности и результатов тестирования, или в общем случае — связь уровня активации (X) и продуктивности деятельности (У). Связь таких переменных напоминает перевернутую (инвертированную) II (рис. 6.7). Любой из рассмотренных коэффициентов корреляции будет в этом случае иметь значение, близкое к нулю.
г= О
Активация
Продуктивность
Рис. 6.7. Пример криволинейной немонотонной связи между уровнем активации и продуктивностью деятельности
Если наблюдается немонотонная нелинейность связи, то можно поступить двояко. В первом случае сначала надо найти точку перегиба по графику рассеивания и разделить выборку на две группы, различающиеся направлением связи между переменными. После этого можно вычислять корреляции отдельно для каждой группы. Второй способ предполагает отказ от применения коэффициентов корреляции. Необходимо ввести дополнительную номинативную переменную, которая делит исследуемую выборку на контрастные группы по одной из переменных. Далее можно изучать различия между этими группами по уровню выраженности (например, по средним значениям) другой переменной.
В приведенном примере (рис. 6.7) можно по переменной «активация» выделить 3 группы (низкий, средний и высокий уровень) и далее изучать различия между этими группами по продуктивности деятельности.
КАКОЙ КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ ВЫБРАТЬ
При изучении связей между переменными наиболее предпочтительным является случай применения г-Пирсона непосредственно к исходным данным. В любом случае, обнаружена корреляция или нет, необходим визуальный ана
лиз графиков распределения переменных и графика двумерного рассеивания, если исследователя действительно интересует связь между соответствующими переменными. Применяя г-Пирсона, необходимо убедиться, что:
П связь между переменными прямолинейная.
Если хотя бы одно из условий не выполняется, можно попытаться применить ранговые коэффициенты корреляции: г-Спирмена или т-Кендалла. Но и ранговые корреляции имеют свои ограничения. Они применимы, если:
П обе переменные представлены в количественной шкале (метрической или ранговой);
Применение ранговых коэффициентов корреляции при расчете «вручную» требует предварительного ранжирования переменных. Если при этом встречаются одинаковые значения признаков (связи в рангах), применяется формула г-Пирсона для предварительно ранжированных переменных (в случае с г-Спирмена) либо вводятся поправки на связанные ранги (в случае с т-Кендалла).
Если есть предположение, что корреляция обусловлена влиянием третьей переменной, и все три переменные допускают применение г-Пирсона для вычисления корреляции между ними, возможна проверка этого предположения путем вычисления коэффициента частной корреляции этих переменных (при фиксированных значениях третьей переменной). Если значение частной корреляции двух переменных по абсолютной величине заметно меньше, чем их парная корреляция, то парная корреляция обусловлена влиянием третьей переменной.
Применяя коэффициенты корреляции, особое внимание следует уделять графикам двумерного рассеивания. Они позволяют выявить случаи, когда корреляция обусловлена неоднородностью выборки по той и другой переменной. Кроме того, эти графики позволяют определить характер связи: ее линейность и монотонность. Если связь является криволинейной и не монотонной (например, имеет форму Ц), то коэффициенты корреляции не подходят. В этом случае можно разделить выборку на группы по одной из переменных, для сравнения этих групп по выраженности другой переменной.
Если обе переменные представлены в бинарной шкале (0,1), для изучения связи между ними можно применять ф-коэффициент сопряженности, если для каждой переменной количество 0 и 1 приблизительно одинаковое.
Во всех случаях, когда исследователя интересует связь между переменными, а коэффициенты корреляции для этого не подходят, изучение этой связи возможно при помощи сравнения групп, выделяемых по одной из переменных. Если другая переменная метрическая или ранговая, то группы сравниваются по уровню ее выраженности, если номинативная — то по ее распределению.
ОБРАБОТКА НА КОМПЬЮТЕРЕ
Часть II
МЕТОДЫ
СТАТИСТИЧЕСКОГО ВЫВОДА: ПРОВЕРКА ГИПОТЕЗ
Глава 7
ВВЕДЕНИЕ В ПРОБЛЕМУ СТАТИСТИЧЕСКОГО ВЫВОДА
ГИПОТЕЗЫ НАУЧНЫЕ И СТАТИСТИЧЕСКИЕ
Обычно исследование проводится для проверки гипотезы, которая является следствием теоретических представлений.8 Эта гипотеза содержит утверждение о связи абстрактных категорий, относящихся к свойствам более или менее широкой совокупности объектов — генеральной совокупности.
ПРИМЕР
Исходя из теории социального научения, исследователь может предположить, что демонстрация сцен насилия по телевидению ведет к повышению агрессивности подростков. Или у менеджера по кадрам некоторого крупного предприятия, исходя из собственного мнения о роли внешности, может родиться предположение, что отношение сотрудников к своим обязанностям зависит от внешнего вида руководителя. Эти совершенно различные предположения объединяет то, что их можно проверить с использованием научного подхода.
Предположение, которое проверяется с применением научного метода, будем называть научной гипотезой. Следует отметить, что не всякая гипотеза, а только та, которая допускает для своей проверки применение научного метода, может претендовать на научность. Кроме того, можно научно проверять гипотезы относительно любых мелких проблем, обладающих ничтожной научной или практической значимостью. Сам факт применения научного метода вовсе не гарантирует, что проверяемая гипотеза представляет научный интерес.
Применение научного метода для проверки гипотезы предполагает определенную последовательность действий исследователя. Исследование начинается с операционализации абстрактных категорий — определения операций, при помощи которых соответствующие этим категориям явления (агрессивность, внешний вид и т. д.) могут быть измерены. Затем исследователь организует выборку и проводит соответствующие измерения. Результаты измерения преобразуют с использованием описательных статистик к виду, допускающему статистическую проверку научной гипотезы.
ПРИМЕР 7.1
Изучая влияние на агрессивность подростков демонстрации сцен насилия, исследователь измерил агрессивность на двух выборках, различающихся частотой и длительностью просмотра телепередач со сценами насилия. Далее он вычислил средние значения агрессивности для этих выборок: Мх = 6,3 — для тех, кто чаще смотрит такие телепередачи, и М2 = 5,9 — для другой выборки. Какой вывод в отношении гипотезы можно сделать на основе такого различия? Будут ли подобные различия наблюдаться в генеральной совокупности?
Любое исследование сводится к выявлению связи между переменными. В приведенном примере, в частности, исследуется связь между просмотром телепередач со сценами насилия и агрессивностью подростков. Связь эта может выражаться в величине и направлении различий между сравниваемыми группами или в знаке и величине коэффициента корреляции. То есть связь характеризуется своей силой и направлением. Однако есть еще одна не менее важная характеристика связи — ее надежность, «истинность».
Надежность связи непосредственно связана с репрезентативностью выборки, с тем, насколько уверенно статистики выборки позволяют судить о соответствующих параметрах генеральной совокупности. Ведь связь, обнаруженная в выборке, интересует исследователя лишь в той мере, в какой она позволяет судить о связи, которая существует в генеральной совокупности.
ПРИМЕР
Возвращаясь к предыдущему примеру 7.1, обратим внимание, что исследователь действительно обнаружил различие между выборками, свидетельствующее о справедливости его гипотезы. Однако смысл статистической проверки не в том, «различаются ли результаты двух выборок...», а в том, насколько вероятно, что существует различие между всей совокупностью одних и других подростков, которые могли попасть в выборку.
Надежность связи определяется тем, насколько вероятно, что обнаруженная в выборке связь будет вновь обнаружена (подтвердится) на другой аналогичной выборке, извлеченной из той же генеральной совокупности.
Очевидный способ проверки надежности обнаруженной в исследовании связи — это многократное проведение аналогичного исследования на разных выборках. Однако это и трудоемко и не всегда возможно. Но можно сформулировать вопрос по-другому. Если в генеральной совокупности связи нет, то какова вероятность случайного получения данного результата исследования? Иначе говоря, какова вероятность, что полученный результат является слу
чайным, а на самом деле связи в генеральной совокупности нет? Вопрос, сформулированный таким образом, позволяет получить ответ с использованием методов статистики. Соответствующее проверяемое утверждение — об отсутствии связи — называется статистической гипотезой.
Статистическая гипотеза — это утверждение относительно неизвестного параметра генеральной совокупности, которое формулируется для проверки надежности связи и которое можно проверить по известным выборочным статистикам — результатам исследования. Обычно выделяют основную (нулевую) и альтернативную статистические гипотезы. Основная (нулевая) гипотеза (Н0) — содержит утверждение об отсутствии связи в генеральной совокупности и доступна проверке методами статистического вывода. Альтернативная гипотеза (Н,) — принимается при отклонении Н0 и содержит утверждение о наличии связи. При этом нулевая и альтернативная гипотезы представляют собой, в терминах теории вероятности, «полную группу несовместных событий»: если верна одна из них, то другая является ложной, и наоборот, отклонение одной из них неизбежно влечет принятие другой.
В примере 7.1 для определения надежности связи агрессивности с просмотром телепередач со сценами насилия необходимо проверить основную статистическую гипотезу Н0: М1 = М2 — о равенстве двух средних в генеральной совокупности (или, что то же самое, о том, что две выборки принадлежат одной генеральной совокупности). Если по результатам проверки эту гипотезу можно отклонить, то принимается альтернативная гипотеза: Н,: М^М2. Отклонение нулевой и принятие альтернативной статистической гипотезы в данном случае означало бы, что надежность связи достаточно велика, чтобы говорить о наличии этой связи в генеральной совокупности. Иначе говоря, это свидетельствовало бы в пользу проверяемой научной гипотезы о связи агрессивности с просмотром телепередач со сценами насилия.
Отметим, что статистическая проверка научной гипотезы следует Аристотелевой логике доказательства «от противного». Исследователь обычно заинтересован в установлении связи между изучаемыми явлениями, соответственно, его научная гипотеза обычно содержит утверждение о наличии такой связи. Но средствами статистики по результатам выборочного исследования проверяется гипотеза об отсутствии различий. И научная гипотеза подтверждается в той мере, в какой по результатам выборочного исследования возможно отклонение основной статистической гипотезы.
ПРИМЕР
Первым примером применения такой логики для проверки статистической гипотезы, по-видимому, является работа врача королевы Анны, а ранее учителя математики, Дж. Арбутнота «Довод в пользу божественного провидения, выведенный из постоянной регулярности, наблюдаемой в рождении обоих полов» (1710—
1712 гг.)9. В распоряжении Арбутнота были записи о рождении детей на протяжении 82 лет, которые свидетельствовали о том, что за этот период времени каждый год мальчиков рождалось больше, чем девочек. Если исходить из равновероятного рождения мальчиков и девочек (Н0: Р= '/2), то вероятность того, что каждый год на протяжении 82 лет мальчиков родится больше, чем девочек, составляет (1/2)82 = 2-10~25. Так как эта вероятность очень мала, статистическую гипотезу о равновероятном рождении мальчиков и девочек можно отклонить, приняв альтернативную гипотезу о том, что в действительности вероятность рождения мальчиков достоверно выше '/2- Логика обоснования «довода в пользу божественного провидения», предложенная Арбутнотом, в общих чертах сохранилась и по сей день.
ИДЕЯ ПРОВЕРКИ СТАТИСТИЧЕСКОЙ ГИПОТЕЗЫ
Рассмотрим идею проверки статистической гипотезы на примере. Предположим, психолог решил проверить пригодность разработанных ранее норм для имеющегося в его распоряжении теста интеллекта. Прежний нормативный показатель А = 10. На новой выборке численностью N = 100 человек он получил следующие результаты: М— 10,6; а = 3.
Различия действительно обнаружены. Но интуитивно понятно, что такой результат может быть получен случайно, даже если в действительности (в генеральной совокупности) различий нет, как и наоборот, когда различия на самом деле существуют. Поэтому точный ответ в отношении генеральной совокупности по результатам выборочного исследования получить невозможно. Но методы статистики, как уже отмечалось, позволяют оценить вероятность случайного получения такого различия при условии, что различий на самом деле в генеральной совокупности нет (верна Н0).
В нашем примере Н0: МХ=А, то есть проверяется гипотеза, что среднее генеральной совокупности М, из которой извлечена выборка, равно А = 10. Предположим, что выборка одного и того же объема N извлекается из такой совокупности многократно. И каждый раз вычисляется выборочное среднее значение Мх. После многократного проведения таких опытов можно построить распределение выборочных средних значений. Понятно, что выборочные средние чаще будут близки к А = 10, но иногда более или менее существенно отличаться от 10. Оказывается, что форма выборочного распределения для данного случая, как и для многих других, известна заранее (поэтому они называются теоретическими распределениями). Одна из основных теорем статистики — центральная предельная теорема — гласит, что распределение средних значений выборок, извлекаемых из одной и той же совокупности при достаточно большом /^соответствует нормальному распределению. Среднее значение всех выборочных средних будет равно среднему значению совокупности (в данном случае — А = 10), а дисперсия выборочных средних составит величину т2 = о2/И, где ох2 — дисперсия совокупности, N — объем каждой выборки (т еще называют ошибкой среднего).
Таким образом, заранее известно распределение средних для случая, когда верна Н0. Это распределение позволяет определить, насколько вероятно то или иное случайное отклонение выборочного среднего от А — среднего в генеральной совокупности. Например, из свойств нормального распределения мы знаем, что примерно 68% площади под кривой нормального распределения находится в диапазоне ± о от среднего значения. Следовательно, 68% всех выборочных средних будет находиться в диапазоне А ±т. Вероятность того, что выборочное среднее случайно попадет в этот диапазон составляет 0,68, а вероятность того, что оно будет отличаться от А больше чем на 1 т составляет 1 — 0,68 = 0,32. Аналогичным образом мы можем определить, насколько вероятно получение данного конкретного (или большего) отклонения выборочного среднего от А при условии истинности Н0.
Для нашего примера необходимо сначала определить, насколько выборочное среднее отличается от А в единицах стандартного отклонения, то есть определить соответствующее ^-значение:
4Й
Формулы, подобные 7.1, позволяют получить так называемое эмпирическое значение критерия для соответствующего теоретического распределения (в данном случае формула 7.1 позволяет вычислить эмпирическое значение I-критерия — для нормального распределения). Подставляя выборочные значения, получаем г = 2. По таблице параметров нормального распределения можно определить, что в диапазоне ±2 находится 0,954 всей площади под кривой. В соответствии с интерпретацией единичной нормальной кривой, этой площади соответствует вероятность того, что случайное отклонение от 0 будет меньше г — ±2. А для нашего случая найденная площадь соответствует вероятности того, что случайное отклонение выборочного среднего значения будет меньше ±{МХ — Л) = ±0,6. Соответственно, вероятность случайного отклонения выборочного среднего от генерального среднего на 0,6 и больше определяется площадью в «хвостах» под кривой нормального распределения — за пределами найденного диапазона (рис. 7.1). Следовательно, вероятность того, что данная выборка принадлежит генеральной совокупности со средним А (то есть, что верна Н0), составляет/7= 1 — 0,954 = 0,046. Это и есть вероятность того, что данный выборочный результат мог быть получен случайно, когда на самом деле в генеральной совокупности верна Н0 или то, что называется р-уровнем значимости.
Следует отметить, что выборочное распределение средних значений соответствует нормальному виду, если 100. Для выборок меньшего объема распределение средних начинает зависеть от объема выборок (точнее — от числа степеней свободы, с1/) и соответствует другому теоретическому распределе-
Рис. 7.1. Выборочное распределение средних значений для верной Н0
нию — /-Стьюдента. Тем не менее, общая последовательность проверки статистической гипотезы остается той же, как, впрочем, и для любого другого случая. Сначала вычисляется соответствующее эмпирическое значение:
I М - АI
'•-ЦЖ-<7'2)
Затем вычисленное эмпирическое значение сопоставляется с теоретическим /-распределением для соответствующего числа степеней свободы с1/. Это позволяет определить ^-уровень — вероятность того, что выборка принадлежит генеральной совокупности, для которой верна нулевая гипотеза Н0: М=А.
Таким образом, в основе статистической проверки гипотез лежит представление о теоретическом распределении выборочной статистики — для условия, когда в генеральной совокупности верна нулевая статистическая гипотеза. В исследовании Арбутнота в качестве теоретического выступало биномиальное распределение для Н0: Р = '/2, а в нашем примере — распределение выборочных средних для известной нулевой гипотезы (2-распределение для больших Л^и /-распределение для малых /V). В процессе проверки статистической гипотезы определяется /7-уровень значимости (вероятность того, что нулевая статистическая гипотеза верна) путем соотнесения эмпирических значений выборочных статистик (например, разности средних) с теоретическим распределением, соответствующим нулевой статистической гипотезе.
УРОВЕНЬ СТАТИСТИЧЕСКОЙ ЗНАЧИМОСТИ
Статистическая значимость (Б^пфсат 1еуе1, сокращенно или р-уровень значимости (р-1еуеГ), — основной результат проверки статистической гипотезы. Говоря техническим языком, это вероятность получения данного результата выборочного исследования при условии, что на самом деле для генеральной совокупности верна нулевая статистическая гипотеза — то есть связи нет. Иначе говоря, это вероятность того, что обнаруженная связь носит случайный характер, а не является свойством совокупности. Именно статистическая значимость, ^-уровень значимости является количественной оценкой надежности связи: чем меньше эта вероятность, тем надежнее связь.
Предположим, при сравнении двух выборочных средних было получено значение уровня статистической значимостир — 0,05. Это значит, что проверка статистической гипотезы о равенстве средних в генеральной совокупности показала, что если она верна, то вероятность случайного появления обнаруженных различий составляет не более 5%. Иначе говоря, если бы две выборки многократно извлекались из одной и той же генеральной совокупности, то в 1 из 20 случаев обнаруживалось бы такое же или большее различие между средними этих выборок. То есть существует 5%-ная вероятность того, что обнаруженные различия носят случайный характер, а не являются свойством совокупности.
В отношении научной гипотезы уровень статистической значимости — это количественный показатель степени недоверия к выводу о наличии связи, вычисленный по результатам выборочной, эмпирической проверки этой гипотезы. Чем меньше значение р-уровня, тем выше статистическая значимость результата исследования, подтверждающего научную гипотезу.
Полезно знать, что влияет на уровень значимости. Уровень значимости при прочих равных условиях выше (значение ^-уровня меньше), если:
П изменчивость признака (признаков) меньше;
Это демонстрируют формулы 7.1 и 7.2, как и другие формулы, предназначенные для соотнесения эмпирических значений статистик с теоретическими распределениями. В данном случае статистическая значимость возрастает (/^-уровень уменьшается), когда увеличивается ^-значение: при увеличении разности средних значений, при уменьшении дисперсии признака, при увеличении объема выборки.
Чем больше гипотез проверяется, тем выше шанс получить результат чисто случайно — р-уровень увеличивается пропорционально количеству проверяемых гипотез!
Например, если результат считается значимым при р < 0,05 и проверяется 20 гипотез (о корреляции или различиях), то одна из гипотез подтвердится наверняка, независимо от действительного положения дел. Единственный шанс внести ясность — проверить эти гипотезы на параллельной (идентичной) выборке.
СТАТИСТИЧЕСКИЙ КРИТЕРИЙ И ЧИСЛО СТЕПЕНЕЙ СВОБОДЫ
Статистический критерий (5(аИ$Иса1 Тез!) — это инструмент определения уровня статистической значимости. В частности, при демонстрации логики проверки статистической гипотезы мы воспользовались г-критерием, а также упомянули критерий /-Стьюдента. Как следует из логики проверки статистических гипотез, в качестве основы для применения статистических критериев используют теоретические распределения, для условия, когда верна нулевая гипотеза. Критерий также подразумевает формулу, позволяющую соотнести эмпирическое значение выборочной статистики с этим теоретическим распределением (например, формулы 7.1 и 7.2). Применяя эту формулу, исследователь вычисляет эмпирическое значение критерия. Полученное эмпирическое значение позволяет определить р-уровень — значение вероятности того, что нулевая статистическая гипотеза верна.
Помимо формулы эмпирического значения, критерий задает формулу для определения числа степеней свободы. Число степеней свободы Ые^геех о//гее- йот — обозначается как (1/)— это количество возможных направлений изменчивости признака. Как правило, число степеней свободы линейно зависит от объема выборки, от числа признаков или их градаций — чем больше эти показатели, тем больше число степеней свободы. В связи с тем, что для каждого случая определение аимеет свою специфику, сейчас подчеркнем лишь следующее. Каждая формула для расчета эмпирического значения критерия обязательно сопровождается правилом (формулой) для определения числа степеней свободы.
Назначение критерия — проверка статистической гипотезы путем определения р-уровня значимости (вероятности того, что Н0 верна).
Выбор критерия определяется проверяемой статистической гипотезой.
Критерий включает в себя:
П правило (формулу) определения числа степеней свободы;
Для проверки статистических гипотез применяются различные критерии. При этом одному теоретическому распределению могут соответствовать разные формулы критериев — в зависимости от проверяемой статистической гипотезы. Но принцип проверки является общим для всего этого многообразия: вычисленное по формуле эмпирическое значение критерия сопоставляется с теоретическим распределением для заданного числа степеней свободы, что позволяет определить вероятность того, что Н0 верна.
ПРОВЕРКА ГИПОТЕЗ С ПОМОЩЬЮ СТАТИСТИЧЕСКИХ КРИТЕРИЕВ
Множество разработанных статистических критериев (или статистических тестов) соответствует множеству возможных формулировок статистических гипотез. Выбор критерия представляет собой отдельную проблему, которая
Выбор критерия представляет собой отдельную проблему
будет рассматриваться нами в следующей главе. А сейчас будем исходить из того, что исследователь уже решил проблему выбора критерия, и рассмотрим общую последовательность проверки гипотезы.
При обработке данных на компьютере при помощи статистической программы (например, 8Р85) исследователю достаточно указать программе, какой критерий (метод, тест) необходимо применить к заданной выборке исходных данных. Далее программа сама вычисляет эмпирическое значение критерия и сопоставляет его с теоретическим распределением. В качестве результата исследователь получает значение ^-уровня значимости, наряду с эмпирическим значением критерия и числом степеней свободы.
Когда расчеты производятся «вручную», исследователь совершает более сложную последовательность действий для проверки гипотезы, включающую применение специальных таблиц критических значений критерия:
Таблица критических значений содержит значения (квантили) теоретического распределения, соответствующие наиболее важным — критическим значениям уровня (0,1; 0,05; 0,01 и т. д.) для различных чисел степеней свободы, р-уровепь значимости по вычисленному эмпирическому значению критерия при помощи таких таблиц определяется следующим образом. Для данного числа степеней свободы по таблице определяются ближайшие критические значения и ^-уровни, им соответствующие. Далее значение ^-уровня определяется в виде неравенства по правилу, которое демонстрируется на рис. 7.2 (значимость возрастает слева направо, в соответствии с убыванием /ьуровня): □ если эмпирическое значение критерия (Кэ) находится между двумя критическими значениями, то ^-уровень меньше того критического р, которое находится левее;
Например, если эмпирическое значение критерия (Кэ) находится между Л^05 и /Г0 01, то р < 0,05. Если Кэ находится левее Ко и то р > 0,1. Если Кэ находится правее Кй т, тор < 0,001.
Решение исследователя:
р > 0,1 р < 0,1 р < 0,05 р < 0,01 р< 0,001
р = 0,1 р = 0,05 р = 0,01 р = 0,001
Ко, 05 Ко,01 ^0,001
Рис. 7.2. Схема определения р-уровня (р = ... — критические значения р-уровня, К — соответствующие критические значения критерия)
Для разных критериев возможны разные соотношения между ^-уровнем и величиной критических его значений. Для большинства критериев ((, Г, %2 и др.) — чем больше значение критерия, тем выше статистическая значимость (меньше ^-уровень). Но для некоторых критериев зависимость обратная. Например, [/-Манна-Уитни или Г-Вилкоксона убывают по мере увеличения уровня значимости (уменьшения ^-уровня). Тем не менее, правило остается общим, в соответствии со схемой на рис. 7.2. Например, если (э находится между ?0д и ?0 05 (т. е. ?0д < ?э < ?0,о5)> то/? < 0,1. И если находится между и Ъ0,05 (т. е. ^/0,05 < Ц) < ^0,1), то/><0,1. Если же эмпирическое значение попадает левее критического для /7 = 0,1 (?э < /0,, но [/э > то уровень значимости определяется как р > 0,1.
ПРИМЕРЫ
35 обнаруживаем, что наше эмпирическое значение попадает в интервал между значениями 2,724 (для р = 0,01) и 3,591 (для р = 0,001). Следовательно, вероятность того, что Н0 верна, р < 0,01.
СТАТИСТИЧЕСКОЕ РЕШЕНИЕ И ВЕРОЯТНОСТЬ ОШИБКИ
До сих пор под проверкой статистической гипотезы мы подразумевали процедуру определения надежности связи (^-уровня, как показателя статистической значимости). Однако в конечном итоге проверка статистической гипотезы должна заканчиваться принятием статистического решения о том, какая же гипотеза верна: нулевая — об отсутствии связи или альтернативная — о ее наличии. Соответственно, от этого зависит и окончательный, содержательный вывод исследования: подтверждена или нет исходная научная гипотеза.
Вполне очевидно, что основанием для принятия исследователем решения о том, какая гипотеза верна, является ^-уровень — вероятность того, что верна все-таки нулевая гипотеза. Чем меньше ^-уровень, тем с большей уверенностью можно отклонить Н0 в пользу Нь тем самым подтвердив исходную содержательную гипотезу. Не менее очевидно и то, что, принимая решение, исследователь всегда допускает вероятность его ошибочности: ведь исследование проведено на выборке, а вывод делается в отношении генеральной совокупности. При отклонении Н0 в пользу Н! исследователь рискует, что связи на самом деле в генеральной совокупности нет. И наоборот, решение в пользу Н0 вовсе не исключает наличие связи. Рассмотрим возможные исходы принятия решения в зависимости от действительного положения дел:
Отклонить Н0 |
Неправильное решение, |
Правильное решение, |
(принять Н,) |
ошибка I рода, |
вероятность = 1 — р |
вероятность = а |
(мощность или |
|
чувствительность критерия) |
||
Принять Н„ |
Правильное решение, |
Неправильное решение, |
вероятность = 1 — а |
ошибка II рода, |
|
(доверительная вероятность) |
вероятность = р |
В действительности:
Решение исследователя:
Н„ истинна
Н, истинна
Как следует из таблицы, решение исследователя зависит от того, какую вероятность ошибки I рода а, он считает допустимой: если ^-уровень, полученный в процессе проверки гипотезы, меньше или равен а, исследователь отклоняет Н0, и это, как правило, желательный для него результат (содержательная гипотеза подтверждается!). Отметим, что в этом случае вероятность ошибки известна, она меньше или равна а, точнее, равна р-уровню. Если же р-уровень превышает а, то принимается Н0 и содержательная гипотеза не подтверждается10. Но при этом вероятность ошибки II рода Р — того, что верна все же Н1 обычно остается неизвестной.
Принятие Н0'. в угоду критически настроенному научному сообществу, но к огорчению исследователя
Рассмотрим соотношение ошибок I и II рода. Предположим, как и в прошлых примерах, проверяется гипотеза об отличии среднего значения от некоторой величины А. Нулевой гипотезе Н0: М~А соответствует известное теоретическое распределение со средним А. Предположим также, что в генеральной совокупности на самом деле среднее значение больше А и равно В, а исследователь, как обычно, об этом даже и не догадывается. Этому положению дел будет соответствовать свое, «альтернативное» теоретическое распределение, сходное с распределением для Н0, но со средним В (рис. 7.3). На рис. 7.3 видно, что с уменьшением а растет «доверительная вероятность» 1 — а, которая определяет величину отклонения выборочного среднего от А для принятия Н0: уменьшая а, исследователь увеличивает возможное отклонение выборочного среднего от А, при котором принимается Н0. Принятие Н0 при больших отклонениях выборочного среднего от А увеличивает вероятность ошибки II рода, [3, вероятность того, что на самом деле верна альтернативная гипотеза. Таким образом, снижение величины а увеличивает риск допустить ошибку IIрода — не обнаружить различия или связи, которые на самом деле существуют.
о
2
А
В
Рис. 7.3. Соотношение вероятностей ошибок I и II рода
Вероятность (1 — Р) называется мощностью (чувствительностью) критерия. Эта величина характеризует статистический критерий с точки зрения его способности отклонять Н0, когда она не верна. Точное значение величины мощности критерия в большинстве случаев остается неизвестным. Величина
М
(1 - а) характеризует степень доверия к результатам статистической проверки и называется доверительной вероятностью.
Итак, основная проблема статистического вывода заключается в том, что заранее должно быть установлено оптимальное значение величины а, удовлетворяющее двум противоречивым требованиям. Величина а должна быть достаточно мала, чтобы обеспечивать доверие к результатам исследования при отклонении Н0. Величина а должна быть достаточно велика, чтобы отклонить Н0 при наличии связи (различий), не допуская ошибки II рода. Вопрос о том, какая же величина а является приемлемой, не имеет однозначного ответа. Есть лишь общие соображения, которыми можно руководствоваться при назначении а для статистического вывода:
□ Для установленного значения а вероятность ошибки |3 уменьшается с ростом объема выборки.
П Вероятность ошибки р уменьшается при увеличении значения а (например, с 0,01 до 0,05).
Вопрос о величине а — вопрос о том, при каком же р-уровне исследователь может отклонить Н0, решается преимущественно исходя из неформальных соглашений, принятых на основе практического опыта в различных областях исследования. Традиционная интерпретация различных уровней значимости исходит из а = 0,05 и приведена в табл. 7.1. В соответствии с ней приемлемым для отклонения Н0 признается уровень р < 0,05. Такая относительно высокая вероятность ошибки I рода может быть рекомендована для небольших выборок (когда высока вероятность ошибки II рода). Если объемы выборок около 100 и более объектов, то порог отклонения Н0 целесообразно снизить до а = 0,01 и принимать решение о наличии связи (различий) при р < 0,01.
Таблица 7.1
Традиционная интерпретация уровней значимости при а = 0,05
Уровень значимости |
Решение |
Возможный статистический вывод |
р> 0,1 |
Принимается Н0 |
«Статистически достоверные различия не обнаружены» |
/><0,1 |
сомнения в истинности Н0, неопределенность |
«Различия обнаружены на уровне статистической тенденции» |
р < 0,05 |
значимость, отклонение Н(| |
«Обнаружены статистически достоверные (значимые) различия» |
/><0,01 |
высокая значимость, отклонение Н„ |
«Различия обнаружены на высоком уровне статистической значимости» |
р > 0,1 р«0,1 р,<0,05 р0,01 рч< 0,001
НАПРАВЛЕННЫЕ И НЕНАПРАВЛЕННЫЕ АЛЬТЕРНАТИВЫ
Основная (нулевая) статистическая гипотеза, как отмечалось, содержит утверждение о равенстве нулю (коэффициента корреляции) или о равенстве средних значений, дисперсий и т. д. Если по результатам статистической проверки основная гипотеза отклоняется, то принимается альтернативная гипотеза. Принимаемая альтернатива может быть как направленной (например, Н^ /">0 или Нр Мх > М2), так и не направленной (например, Н,: г ^ 0 или Н^ М{ ^ Л/2). То, какая альтернатива должна быть принята по результатам проверки, зависит от применяемого для проверки метода и теоретического распределения. Обычно характер альтернативы явно указывается при описании метода.
В большинстве случаев направленность или ненаправленность альтернативы зависит от формы теоретического распределения. Если оно симметрично и включает отрицательные значения, то обычно применяются ненаправленные альтернативы. Это относится к таким теоретическим распределениям, как ^-распределение (нормальное распределение), распределение Г-Стьюден- та и т. д. Если распределение асимметрично и может принимать только положительные значения, то применяются направленные альтернативы, например, при использовании критериев х2-Пирсона или /"-Фишера, хотя встречаются и исключения. Важно отметить, что выбор альтернативы — направленной или ненаправленной — исключает произвол исследователя и обычно задается выбранным методом проверки гипотезы.
Если процедура проверки гипотезы Н0 подразумевает ненаправленную альтернативу, то критические области, соответствующие ее отклонению (принятию альтернативы), поровну распределяются по обоим «хвостам» распределения (рис. 7.4). Чаще всего интервал принятия нулевой гипотезы (1 - а) при этом охватывает диапазон теоретических значений, симметричный относительно нуля (вспомним 2-распределение). Поэтому такие критерии часто называют двусторонними (2-1аИес1), имеющими «два хвоста» — для проверки ненаправленных гипотез. Заметим, что в этом случае, если принят уровень а для решения об отклонении Н0, существует два теоретических (критических) значения: одно отсекает а/2 справа, а другое, отрицательное — а/2 слева. Если проверяется направленная гипотеза, то процедура проверки допускает при-
Рис. 7.4. Различие направленной (а) и ненаправленной (б) альтернатив (для одного и того же эмпирического значения р-уровень в случае (б) в два раза больше, чем в случае (а))
нятие односторонней альтернативы (1-1аИес1) (например, Н^ г> 0). В этом случае, если принят уровень а для решения об отклонении Н0, существует одно теоретическое (критическое) значение (для Н^' г > 0 — положительное), и оно отсекает ровно а справа (или слева — в зависимости от направления альтернативы). Очевидно, что односторонняя альтернатива более «лояльна» к отклонению Н0 для одних и тех же выборочных результатов. При двусторонней альтернативе, по сравнению с односторонней, нулевая гипотеза отвергается при больших значениях силы связи (корреляции, различий средних и пр.).
Важно отметить, что принятие по результатам проверки гипотезы ненаправленной альтернативы вовсе не означает ограничение выводов лишь «ненаправленными» суждениями типа: «средние различаются», «корреляция отличается от нуля». Как следует из предыдущих рассуждений, проверка ненаправленной гипотезы является более «строгой» (при прочих равных условиях). Принятие ненаправленной (двусторонней) альтернативы позволяет сделать вывод о направлении связи в генеральной совокупности в соответствии с выборочными данными.
ПРИМЕР
При проверке статистической значимости коэффициентов корреляции обычно используются ненаправленные альтернативы (Н0: г= 0 против Н,: г ^ 0). Однако если Н0 отклоняется, например, при г= —0,34, то вывод не ограничивается констатацией отличия от нуля, а распространяется и на знак связи: «обнаружена статистически достоверная отрицательная корреляция».
Ранее отмечалось, что определение р-уровня значимости — чисто техническая процедура, выполняемая компьютерной программой автоматически, а при расчетах «вручную» — по таблицам теоретических распределений (критических значений). Тем не менее, полезно знать, что существует простое соотношение между р-уровнями для направленных и ненаправленных альтернатив. Для одного и того же эмпирического значения критерия р-уровень значимости для направленной альтернативы в 2 раза меньше р-уровня для ненаправленной альтернативы.
ПРИМЕР
Предположим, сравниваются две дисперсии. При использовании таблицы критических значений для критерия /•'-Фишера (для направленных альтернатив) (приложение 3) эмпирическое значение оказалось между критическими для р = 0,05 и р = 0,01. Следовательно, для направленной альтернативы р < 0,05. Однако при сравнении двух дисперсий проверяется двусторонняя (ненаправленная) альтернатива, поэтому действительный уровень значимости в данном случае — р < 0,1.
Различие между направленной и ненаправленной альтернативами, кажется, еще более усложняет и без того непростую логику статистической проверки гипотез. Однако в большинстве случаев выбор альтернативы не является проблемой для исследователя — он определен самим методом (критерием) статистической проверки и исключает возможность произвола. То, какая альтернатива предполагается, указывается явным образом при описании метода проверки. При проверке гипотезы с помощью таблиц критических значений указывается, для какой альтернативы приведены критические значения. А при использовании статистической компьютерной программы в результатах указывается, для какой альтернативы приведен /^-уровень значимости. Например, при обработке в среде программы 8Р88: 812. (2-гайеё) — р-уровень значимости (двусторонний), 8щ. (ЫаИеф — /7-уровень значимости (односторонний).
СОДЕРЖАТЕЛЬНАЯ ИНТЕРПРЕТАЦИЯ СТАТИСТИЧЕСКОГО РЕШЕНИЯ
Статистическое решение является основанием для содержательного вывода в отношении проверяемой гипотезы. Н0 гарантирует ли отклонение Н0 истинность содержательной гипотезы о наличии связи или различий? Может ли принятие Н0 служить основанием для вывода об отсутствии связи или различий?
Принятие Н0. Из обсуждения оснований принятия статистического решения следует, что, когда принимается Н0, всегда остается вероятность того, что связь или различия все же есть. И мы ничего не можем сказать о том, насколько велика или мала эта вероятность.
Принятие Н0 не означает, что различия отсутствуют или мера связи равна нулю; из этого следует только то, что статистически значимые результаты не обнаружены.
Когда в результате исследования принимается Н0, никакого содержательного вывода сделать нельзя. Поэтому выражение «Отрицательный результат исследования — тоже результат» имеет для исследователя исключительно психотерапевтическое значение: отрицательный результат исследования — это отсутствие какого бы то ни было результата!
Отклонение Н0. В этом случае остается вероятность того, что Н0 все-таки верна и эта вероятность равна ^-уровню значимости. Следовательно, нельзя утверждать, что результаты доказывают справедливость содержательной гипотезы. Корректным будет более осторожный вывод о том, что получено свидетельство в пользу содержательной гипотезы.
Не менее рискован содержательный вывод о причинно-следственной зависимости между изучаемыми явлениями только на основании статистической значимости связи между соответствующими признаками. Конечно, статистическая связь между признаками — это необходимое, но не достаточное условие причинно-следственной связи между ними. Утверждение о том, что явление А есть причина явления В, справедливо, если одновременно выполняются три условия (Д. Кэмпбелл, 1980): а) явления А и В статистически связаны; б) А происходит раньше В\ в) отсутствует альтернативная интерпрета-
Альтернативная интерпретация статистически достоверной связи между явлениями
ция появления В помимо А (другими словами — отсутствует общая причина Ссовместной изменчивости А и В). Таким образом, применение статистических методов позволяет обосновать наличие только статистической связи — одного из трех признаков причинно-следственной связи.
Следует отметить, что при оформлении исследовательского отчета (курсовой или дипломной работы, публикации) статистические гипотезы и статистические решения, как правило, не приводятся. Обычно при описании результатов указывают критерий, приводят необходимые описательные статистики (средние, сигмы, корреляции и т. д.), эмпирические значения критериев, степени свободы и обязательно — р-уровень значимости. Затем формулируют содержательный вывод в отношении проверяемой гипотезы с указанием (обычно—в виде неравенства) достигнутого или недостигнутого уровня значимости.
ПРИМЕРЫ
На трех разных выборках проверялась содержательная гипотеза о связи креативности и тревожности. При расчете на компьютере корреляций Пирсона были получены следующие результаты для каждой из трех выборок:
Приведем примеры содержательных выводов для каждого случая:
В заключении главы отметим место статистического вывода в общей последовательности проверки содержательной гипотезы.
Глава 8
ВЫБОР МЕТОДА СТАТИСТИЧЕСКОГО ВЫВОДА
Приступая к операционализации содержательной гипотезы — к определению того, как будут измерены изучаемые явления, исследователь уже должен представлять себе, какому методу статистического вывода будут соответствовать получаемые в процессе исследования исходные данные. В противном случае он рискует оказаться в драматической ситуации, когда данные уже собраны, но невозможно определить метод их анализа.
Как уже отмечалось, любая содержательная гипотеза научного исследования касается связи между явлениями (свойствами, событиями) — независимо от того, содержит ли формулировка гипотезы указание на связь или на различия (между группами, условиями, событиями). Например, формулировка «мужчины и женщины различаются по коммуникативной компетентности» тождественна формулировке «коммуникативная компетентность связана с полом». Кроме того, независимо от своей формулировки, одна и та же содержательная гипотеза может быть проверена при помощи самых разных статистических методов. Ограничение на выбор статистического метода возникает только после определения того, как измерены (или будут измерены) явления, в отношении связи которых проверяется гипотеза.
ПРИМЕР
Рассмотрим некоторые возможные способы проверки одной и той же содержательной гипотезы. В одном из исследований изучалось проявление «территориального рефлекса» водителей, выезжающих с общественных автостоянок. Проверялась гипотеза о том, что водители, на место которых претендуют другие водители, покидают свое место с намеренной задержкой.11 Гипотеза содержит утверждение о связи двух явлений: 1) интенсивность претензии на занимаемую территорию;
2) интенсивность проявления «территориального рефлекса» — сопротивления претенденту. Эти явления могут быть операционализированы по-разному.
Конечно, для каждого из этих случаев следует применять свой метод статистического вывода — в зависимости от измерительных шкал, в которых представлены признаки. В первом случае будут сравниваться два распределения частот проявления «территориального рефлекса»: для высокой и низкой интенсивности посягательства. Во втором случае может быть вычислена корреляция интенсивности претензии и времени задержки выезда. В третьем — речь может идти о сравнении средних значений времени выезда с автостоянки для разных случаев проявления претензии на занимаемую территорию.
Помимо типов шкал, в которых измерены или представлены изучаемые признаки, на выбор метода статистической проверки гипотезы влияет количество сравниваемых групп (градаций номинативной переменной), зависимость или независимость сравниваемых выборок и ряд других причин. Казалось бы, разнообразие способов статистической проверки должно быть очень велико и сопоставимо с бесчисленным множеством возможных содержательных гипотез. К этому можно добавить большое число разнообразных статистических критериев и вариантов их применения, которые разработаны для самых разных исследовательских ситуаций. Неудивительно, что проблема выбора метода статистического вывода, или проблема выбора критерия, зачастую становится затруднительной даже для искушенного исследователя.
Тем не менее, все бесчисленное множество содержательных гипотез может быть сведено к относительно небольшому числу типичных исследовательских ситуаций. Каждой такой ситуации соответствует своя структура исходных данных и оптимальный метод статистической проверки.
КЛАССИФИКАЦИЯ МЕТОДОВ СТАТИСТИЧЕСКОГО ВЫВОДА
Первое основание для классификации исследовательских ситуаций — это типы шкал, в которых измерены признаки, связь между которыми изучается. Признаки могут быть измерены либо в количественной шкале (порядковой,
Связь Хи У
Типы шкал: |
I. X, У- количественные |
II. X, У— качественные (номинативные) |
III. X— качественный, У— количественный |
Задачи: |
Корреляционный анализ |
Анализ номинативных данных: классификаций, таблиц сопряженности, последовательностей (серий) |
Сравнения выборок по уровню выраженности признака |
Методы: |
а) /--Пирсона — для метрических Хи У; б) частная корреляция и сравнение корреляций; в) /--Спирмена, т-Кендалла — для ранговых Хи У |
Критерий %2-Пирсона (для классификаций и таблиц сопряженности), критерий Мак-Нимара (для таблиц 2x2 с повторными измерениями), критерий серий (для последовательностей) |
(методы сравнения) 4 |
Рис. 8.1. Классификация методов статистического вывода о связи двух явлений в зависимости от типа шкал, в которых они измерены
метрической), либо в качественной (номинативной) шкале. В зависимости от этого выделяются 3 ситуации (рис. 8.1).
Наиболее многочисленная группа методов относится к случаю, когда одна из переменных является количественной, а другая — качественной. Это широкий класс исследовательских ситуаций, когда задача сводится к сравнению групп (градаций номинативной переменной) по уровню выраженности признака (количественной переменной). Для решения такой задачи применяются методы сравнения, которые можно классифицировать по трем основаниям: а) количество сравниваемых групп (градаций номинативной переменной) — две или более двух; б) соотношение сравниваемых групп: зависимые выборки или независимые выборки; в) шкала, в которой измерен количественный признак: метрическая, ранговая. Таким образом, можно выделить 8 основных методов сравнения (рис. 8.2).
Методы сравнения (X— качественный, У— количественный)
Количество выборок (градаций X) |
Две выборки |
Больше двух выборок |
||
Зависимость выборок |
Независимые |
Зависимые |
Независимые |
Зависимые |
Признак У |
метрический |
Параметрические методы сравнения |
||
/-Стьюдента, для независимых выборок |
/-Стьюдента, для зависимых выборок |
АЫОУА |
АЫОУА, с повторными измерениями |
|
ранговый |
Непараметрические методы сравнения |
|||
Ь'-Манна-Уит- ни,критерий серий |
Г-Вилкоксо- на, критерий знаков |
Н- Краскала- Уоллеса |
%-Фрид- мана |
Рис. 8.2. Классификация методов статистического вывода о различии выборок по уровню выраженности количественного признака
МЕТОДЫ КОРРЕЛЯЦИОННОГО АНАЛИЗА
Проверяемая Н0\ коэффициент корреляции равен нулю.
Условие применения: а) два признака измерены в ранговой или метрической шкале на одной и той же выборке; б) связь между признаками является монотонной (не меняет направления по мере увеличения значений одного из признаков).
Структура исходных данных:
№ |
X |
У |
1 |
1 |
3 |
2 |
3 |
5 |
3 |
3 |
1 |
4 |
8 |
2 |
N |
9 |
16 |
Обычно изучаются корреляции между множеством Р переменных. В таком случае вычисляются корреляции между всеми возможными парами этих переменных. Результатом является корреляционная матрица, включающая Р(Р— 1)/2 значений коэффициентов парной корреляции. Под корреляционным анализом обычно и понимают изучение связей по корреляционной матрице.
Методы:
Корреляция /--Пирсона — для метрических переменных.
Условие применения: а) распределения Хи /существенно не отличаются от нормального.
Дополнительно: частная корреляция — для изучения зависимости корреляции Хи У от влияния переменной сравнение корреляций — для независимых и зависимых выборок.
Корреляции /--Спирмена, т-Кендалла — для порядковых переменных.
МЕТОДЫ АНАЛИЗА НОМИНАТИВНЫХ ДАННЫХ
В зависимости от цели исследования и структуры исходных данных выделяются три группы методов, соответствующих решаемым задачам:
Анализ классификаций
Условие применения-, для каждого объекта (испытуемого) выборки определена его принадлежность к одной из категорий (градаций) ^(получено эмпирическое распределение объектов по Л'); известно теоретическое (ожидаемое) распределение по ^(обычно — равномерное).
ПРИМЕР
Исследовались различия в предпочтении респондентами пяти политических лидеров. Н0: эмпирическое распределение предпочтений респондентов не отличается от равномерного. Таблица сопряженности:
Полит, лидер (Л1) |
Распределение |
|
Эмпирическое |
Теоретическое |
|
1 |
16 |
21 |
2 |
37 |
21 |
3 |
29 |
21 |
4 |
13 |
21 |
5 |
10 |
21 |
Всего: |
105 |
105 |
Проверяемая Н0: эмпирическое (наблюдаемое) распределение Л'не отличается от теоретического (ожидаемого). Метод: критерий/2-Пирсона.
Анализ таблиц сопряженности
Условие применения-, для каждого объекта (испытуемого) выборки определена его принадлежность к одной из категорий (градаций) Хи к одной из категорий (градаций) У (получена перекрестная классификация объектов по двум основаниям — Xи У).
Следует различать три ситуации — в зависимости от числа градаций и соотношения Хи У:
Общий случай: число градаций больше двух
ПРИМЕР
Исследовались различия между мужчинами и женщинами в предпочтениях пяти политических лидеров.
Структура исходных данных:
№ |
Х(пол) |
^(политический лидер) |
1 |
1 |
3 |
2 |
2 |
5 |
N |
1 |
2 |
Таблица сопряженности:
^(политический лидер) |
||||||
1 |
2 |
3 |
4 |
5 |
||
ЛГ(пол) |
муж.(1) |
7 |
22 |
11 |
5 |
6 |
жен. (2) |
9 |
15 |
18 |
8 |
4 |
|
Всего: |
16 |
37 |
29 |
13 |
10 |
Проверяемая Н0: два вида классификации (Л'и У) являются независимыми. Метод', критерий/2-Пирсона.
Таблицы сопряженности 2x2 с независимыми выборками
ПРИМЕР
Методом «потерянных писем» исследовалась склонность людей передавать хорошие и плохие новости. Из 60 открыток с «хорошими» новостями до адресата дошли 35, а из 120 с «плохими» новостями дошли 23 открытки. Действительно ли люди более склонны передавать хорошие новости, чем плохие?
Таблица сопряженности (2x2):
К(открытки) |
|||
не отправленные |
отправленные |
||
Х(новость) |
плохая |
97 |
23 |
хорошая |
25 |
35 |
Проверяемая Н0: два вида классификации (Л'и У) являются независимыми. Методы: критерий/2-Пирсона (с поправкой на непрерывность Йетса), точный критерий Фишера.
Таблицы сопряженности 2x2 с повторными измерениями
ПРИМЕР
Необходимо сравнить два вопроса, заданных одной и той же группе испытуемых, по соотношению ответов «да» и «нет»:
У(вопрос 2) |
|||
«Да» |
«Нет» |
||
^(вопрос 1) |
«Да» |
а = 40 |
6=30 |
«Нет» |
с= 15 |
й?=20 |
Проверяемые Н0: а) а = Ф, б) с = Ъ.
Метод: соотнесение диагональных элементов таблицы 2x2 при помощи метода Мак-Нимара (по критерию г или
Анализ последовательности (серий)
Условие применения, объекты упорядочены (по времени или по уровню выраженности признака); каждый объект отнесен к одной из двух категорий (Л'или У).
ПРИМЕРЫ
С л у ч а й 1. События Хи ^чередуются следующим образом: ХХХХХУУУУУХХУУУУУХУУ
С л у ч а й 2. Значения количественного признака, измеренного для выборки Хи для выборки У, после ранжирования чередуются следующим образом: ХХХХХУУУУУХХУУУУУХУУ
Проверяемые Н0: события ^распределены среди событий /случайно (случай 1); выборки X к Уне различаются по распределению значений количественного признака (случай 2). Метод: критерий серий.
МЕТОДЫ СРАВНЕНИЯ ВЫБОРОК ПО УРОВНЮ ВЫРАЖЕННОСТИ ПРИЗНАКА
В зависимости от решаемых задач методы внутри этой группы классифицируются по трем основаниям:
а) сравниваются 2 выборки;
б)сравниваются больше 2 выборок.
а)сравниваемые выборки независимы;
б)сравниваемые выборки зависимы.
П Шкала У:
а) У— ранговая переменная;
б) У— метрическая переменная.
По последнему основанию методы делятся на две большие группы: параметрические методы (критерии) — для метрических переменных и непараметрические методы (критерии) — для порядковых (ранговых) переменных. Параметрические методы проверяют гипотезы относительно параметров распределения (средних значений и дисперсий) и основаны на предположении о
нормальном распределении в генеральной совокупности. Непараметрические методы не зависят от предположений о характере распределения и не касаются параметров этого распределения.
Сравнение двух выборок
Проверяемая Н0: две совокупности (которым соответствуют выборки) не отличаются по уровню выраженности измеренного признака.
Сравнение двух независимых выборок
Условия применения: признак измерен у объектов (испытуемых), каждый из которых принадлежит к одной из двух независимых выборок.
ПРИМЕР
Исследование различий между юношами и девушками по тревожности, измеренной в количественной (ранговой, метрической) шкале. Структура данных:
№ |
Х(пол) |
К(тревожность) |
1 |
1 |
10 |
2 |
2 |
9 |
3 |
2 |
3 |
4 |
1 |
8 |
N |
1 |
6 |
Методы:
У — метрическая переменная: сравнение двух средних значений (параметрический критерий /-Стыодента для независимых выборок).
Условия применения: признак измерен в (а) метрической шкале, (б) дисперсии двух выборок гомогенны (статистически достоверно не различаются). Если не выполняется хотя бы одно из этих условий, то применяется непараметрический критерий {/-Манна-Уитни.
Дополнительно: возможно сравнение двух дисперсий (параметрический критерий /'-Фишера).
У— ранговая (порядковая) переменная: сравнение двух независимых выборок по уровню выраженности порядковой или бинарной переменной (критерий б'-Манна-Уитни, критерий серий).
Сравнение 2-х зависимых выборок
Условия применения: (а) признак измерен у объектов (испытуемых), каждый из которых принадлежит к одной из двух зависимых выборок: либо признак измерен дважды на одной и той же выборке, либо каждому испытуемому из одной выборки поставлен в соответствие по определенному критерию испытуемый из другой выборки; (б) измерения положительно коррелируют. Если эти условия не выполняются, то выборки следует признать независимыми.
ПРИМЕРЫ
Структура данных:
1. Изучался эффект социально-психологического тренинга. Каждому ученику класса (численностью N) задавался вопрос: «Как часто твое мнение совпадает с мнением твоих одноклассников», отвечать на который предлагалось при помощи 10-балльной шкалы. Ученики отвечали на вопрос дважды: до и после (Х2) тренинга.
№ |
Х2 |
|
1 |
8 |
10 |
2 |
8 |
9 |
3 |
3 |
4 |
4 |
5 |
5 |
N |
6 |
7 |
2. Изучалось различие в самооценке единства мнений в супружеских парах (всего ТУ пар) между мужьями и их женами. Для этого на вопрос «Как часто Ваше мнение совпадает с мнением супруги (супруга)» при помощи 10-балльной шкалы отвечали мужья каждой пары (X]) и их жены (Х2).
Структура данных та же, что и для предыдущего примера, но № — номер пары.
Методы:
У— метрическая переменная: сравнение двух средних значений (параметрический критерий /-Стьюдента для зависимых выборок).
Условие применения: признак измерен в метрической шкале. Если это условие не выполняется, то применяется непараметрический критерий Т-Вилкоксона.
У— ранговая (порядковая) переменная: сравнение двух зависимых выборок по уровню выраженности порядковой или бинарной переменной (критерий Г-Вилкоксона, критерий знаков).
Сравнение более двух выборок
Проверяемая Н0: несколько совокупностей (которым соответствуют выборки) не отличаются по уровню выраженности измеренного признака.
Сравнение более двух независимых выборок
Условия применения: признак измерен у объектов (испытуемых), каждый из которых принадлежит к одной из к независимых выборок (к > 2).
ПРИМЕР
Структура данных:
Исследовалось влияние интервала между 5 повторениями вербального материала на продуктивность (/) последующего его воспроизведения. Интервал между повторениями (X— три градации) составил: для 1 группы — 0 мин; для 2 группы — 30 мин, для 3 группы — 60 мин.
№ |
Х(интервал) |
/(эффективность воспроизведения) |
1 |
1 |
8 |
2 |
3 |
9 |
3 |
2 |
4 |
4 |
1 |
5 |
N |
2 |
6 |
Методы:
У— метрическая переменная: дисперсионный анализ (АМОУА) для независимых выборок (параметрический метод).
Дополнение: метод допускает сравнение выборок более чем по одному основанию — когда деление на выборки производится по нескольким номинативным Переменным, каждая из которых имеет 2 и более градаций.
ПРИМЕР
Исследовалось влияние на продуктивность воспроизведения (Г) вербального материала: а) интервала между повторениями (Хк — 3 градации) и б) объема материала (Х2 — 2 градации).
Структура данных:
№ |
X (интервал) |
Х2 (объем) |
/(эффективность воспроизведения) |
1 |
1 |
2 |
8 |
2 |
3 |
2 |
9 |
3 |
2 |
1 |
4 |
4 |
1 |
1 |
5 |
N |
2 |
2 |
6 |
Условия применения: признак /измерен в (а) метрической шкале, (б) дисперсии выборок гомогенны (статистически достоверно не различаются). Если не выполняется хотя бы одно из этих условий, то:
У— ранговая (порядковая) переменная: сравнение более двух независимых выборок по уровню выраженности ранговой переменной (непараметрический критерий Я-Краскала-Уоллеса).
Ограничение: метод позволяет сравнивать выборки только по одному основанию, когда деление на группы производится по одной номинативной переменной, имеющей более 2-х градаций.
Сравнение более двух зависимых выборок
Условия применения: (а) признак измерен у объектов (испытуемых), каждый из которых принадлежит к одной из к зависимых выборок (к > 2): как правило, признак измерен несколько раз на одной и той же выборке; (б) измерения положительно коррелируют.
ПРИМЕРЫ
Структура данных:
Исследовалось влияние положения элементов в ряду (переменная X, 3 градации: начало, середина, конец ряда) на продуктивность их воспроизведения каждым из ./Vиспытуемых (переменная У\ доля воспроизведенных элементов).
№ |
У |
У2 |
Уг |
1 |
ОД |
о,з |
0,4 |
2 |
0,3 |
ОД |
0,2 |
3 |
0,2 |
0,1 |
0,5 |
4 |
0,1 |
0,2 |
0,3 |
N |
0,2 |
0,1 |
0,2 |
Методы:
У — метрическая переменная: дисперсионный анализ (А1ЧОУА) с повторными измерениями (параметрический метод).
Дополнение: метод допускает сравнение выборок более чем по одному основанию — когда помимо деления на зависимые выборки, вводятся номинативные переменные, которые имеют 2 и более градаций и делят испытуемых на независимые выборки.
ПРИМЕР
Исследовалось влияние на продуктивность воспроизведения (переменная У: доля воспроизведенных элементов): а) положения элементов в ряду (переменная Хг, 3 градации: начало, середина, конец ряда); б) способа предъявления ряда (переменная Х2, 2 градации).
Структура данных:
№ |
Хг |
У |
Уз |
|
1 |
1 |
0,1 |
0,3 |
0,4 |
2 |
2 |
0,3 |
0,1 |
0,2 |
3 |
1 |
0,2 |
ОД |
0,5 |
4 |
1 |
0,1 |
0,2 |
0,3 |
N |
2 |
0,2 |
0,1 |
0,2 |
Условия применения: а) признак /измерен в метрической шкале; б) дисперсии сравниваемых выборок гомогенны (статистически достоверно не различаются). Если не выполняется хотя бы одно из этих условий, то:
К — ранговая (порядковая) переменная: сравнение более двух зависимых выборок по уровню выраженности ранговой переменной (непараметрический критерий х2-Фридмана).
Ограничение: метод позволяет сравнивать зависимые выборки только по одному основанию — повторным измерениям.
Глава 9
АНАЛИЗ НОМИНАТИВНЫХ ДАННЫХ
Методы, о которых пойдет речь в этой главе, касаются проверки, по-види- мому, самого широкого класса гипотез — в отношении тех явлений, измерения которых доступны в номинативной шкале.
ПРИМЕРЫ
Кто чаще обращается в службу знакомств: мужчины или женщины?
Зависит ли количество аварий на производстве от дня недели?
Можно ли утверждать, что водители-женщины чаще становятся участниками ДТП
(дорожно-транспортных происшествий)?
Можно ли утверждать, что выигрыши в игре распределены не случайно среди проигрышей?
Данные для ответов на подобные обыденные и чисто академические вопросы могут быть получены при помощи простого способа — классификации событий и людей по интересующим градациям. И несмотря на, казалось бы, бесчисленное многообразие подобных ситуаций, все они могут быть сведены к трем типичным случаям:
ПРИМЕРЫ
Случай I.
Случай II.
Для решения подобных задач, связанных с анализом классификаций или таблиц сопряженности, оказывается достаточным применение одного и того же критерия — х2-Пирсона:
Хэ=Е(/>/т)2, а/ = (к-])(1-1), (9.1)
1 = 1 /т
где Р — количество ячеек таблицы распределения или сопряженности, содержащих эмпирические значения частот;/э,/т — эмпирическое и теоретическое значения частот для одной ячейки; к — число градаций сопоставляемых распределений; / — количество сопоставляемых распределений. Приведенная формула является общей для различных ситуаций, и в каждом случае ее применение обладает своей спецификой.
ПРИМЕРЫ
Случай III.
Для решения задач такого типа необходимо упорядочить события во времени и подсчитать число серий. Серия — это последовательность однотип
ных событий, непосредственно перед и после которой произошли события другого типа. Далее применяется критерий серий, позволяющий определить вероятность случайного появления наблюдаемого числа серий при условии хаотичного распределения событий береди событий У.
Очень часто при исследовании классификаций, сопряженности или последовательности нет необходимости в накоплении данных в привычных таблицах типа «объект-признак»: результаты наблюдений сразу заносят в таблицу распределения (сопряженности) или составляют последовательность. В этом случае нет необходимости в использовании специальных статистических программ, и все расчеты можно провести «вручную». Тем более что они не составляют особого труда.
АНАЛИЗ КЛАССИФИКАЦИИ: СРАВНЕНИЕ ЭМПИРИЧЕСКОГО И ТЕОРЕТИЧЕСКОГО
РАСПРЕДЕЛЕНИЙ
Две градации
Эта задача сводится к сравнению численности двух долей объектов (людей, событий и т. д.) в совокупности: обладающих и не обладающих некоторым свойством.
ПРИМЕР
Мы можем сопоставлять долю мужчин, которым больше нравятся блондинки, с долей мужчин, которым больше нравятся девушки с темными волосами. Или сопоставлять доли голосующих «за» и «против» введения моратория на смертную казнь.
Обычно, сопоставляя доли, мы надеемся обнаружить различия их пропорции от некоторого ожидаемого соотношения. Соотношение численности групп, которое мы получаем в результате исследования, называется эмпирическим распределением. Ожидаемому соотношению соответствует теоретическое распределение. В качестве теоретического распределения чаще всего выступает равномерное распределение.
Изучая отношение людей к введению моратория на смертную казнь, мы надеемся, что численность группы голосующих «за» будет отличаться от численности группы голосующих «против», то есть распределение голосующих на две категории будет отличаться от равномерного распределения.
Формулировка проверяемой Н0: соотношение долей в генеральной совокупности не отличается от ожидаемого (теоретического) соотношения.
Исходные данные: определена принадлежность каждого испытуемого к одной из двух категорий номинативной переменной. Задано ожидаемое (теоретическое) соотношение численности категорий.
Эта гипотеза проверяется при помощи формулы 9.1 для критерия х2, где Р — 2 (сумма состоит из двух слагаемых), к — 2,1=2, каждая из двух эмпирических частот соответствует численности сравниваемых групп. Численности каждой из сравниваемых групп (эмпирической частоте) ставится в соответствие теоретическая частота. Сумма теоретических частот равна сумме эмпирических частот, а соотношение теоретических частот равно ожидаемому (теоретическому) соотношению.
Следует отметить, что точное решение для такого рода задач дает применение биномиального критерия. Но поскольку его расчет трудоемок, а таблицы критических значений громоздки, мы предлагаем для расчетов «вручную» использовать приближение при помощи критерия %2. При расчетах на компьютере в подобных случаях все же следует предпочесть биномиальный критерий (см. раздел «Обработка на компьютере»),
ПРИМЕР 9.1
А) Из 50 опрошенных по поводу отношения к введению моратория на смертную казнь 30 были «за», 20 — «против» (предполагается, что выборка репрезентативна генеральной совокупности). Можно ли утверждать на основании этого опроса, что в совокупности количество сторонников превышает количество противников введения моратория на смертную казнь?
Распределение: |
||
эмпирическое |
теоретическое |
|
«За» |
30 |
25 |
«Против» |
20 |
25 |
Сумма: |
50 |
50 |
Шаг 1. Формулируем Н0: сравниваемые доли равны между собой (эмпирическое распределение соответствует равномерному распределению).
Ш а г 2. Выбираем для принятия статистического решения а = 0,05.
Ш а г 3. Вычисляем эмпирическое значение критерия. Задача сводится к сопоставлению эмпирического распределения 30:20 с идентичиым по общей численности, но равномерным теоретическим распределением 25:25. Следовательно:
(Гэ), = 30; = 20; = 25; <Д)2 = 25.
Подставляем эти значения в формулу 9.1:
Ш а г 4. Определяем ^-уровень. По таблице критических значений теоретического распределения х2-Пирсона (приложение 4) для с!/= 1 видим, что наше эмпирическое значение х2э находится левее критического значения для р = 0,1:
р > 0,1 р < 0,1 р < 0,05 р < 0,01 р< 0,001
р = 0,1 р- 0,05 р = 0,01 р = 0,001
Ш а г 5. Принимаем статистическое решение. В соответствии со схемой определения р-уровня р > 0,1, и мы не можем отклонить Н0, так как р > а.
Ш а г 6. Формулируем содержательный вывод. В результате исследования не обнаружены статистически значимые различия в соотношении численности сторонников и противников введения моратория на смертную казнь (р > 0,1). Или: численность сторонников и противников введения моратория па смертную казнь статистически значимо не различается (/; >0,1).
Б) Предположим теперь, что было опрошено не 50, а 100 человек, и соотношение высказавшихся «за» и «против» сохранилось. Тогда эмпирические частоты составили бы 60 «за» и 40 «против», а соответствующие теоретические частоты равнялись бы 50. Число степеней свободы не меняется, а эмпирическое значение критерия увеличивается: = В соответствии с таблицей критических значений х2 и со схемой определения р-уропня/К 0,05, и мы можем отклонить Н0, так как р < а. Тогда содержательный вывод будет другим: численность сторонников введения моратория на смертную казнь статистически достоверно выше численности противников введения моратория (р < 0,05).
Обратите внимание: принятие Н0 не позволяет сделать никакого вывода о соотношении численности сравниваемых групп. Напротив, отклонение Н0 позволяет в данном случае говорить не только о различии сравниваемых долей, но и о направлении различий — о том, что одна доля больше другой.
Отметим, что в качестве ожидаемого (теоретического) распределения может выступать не обязательно равномерное распределение. Например, мы можем проверять содержательную гипотезу о том, что некоторая группа составляет по численности менее 20% совокупности. Тогда соотношение теоретических частот будет не 1:1, как в рассмотренном примере, а 1: 4. В остальном весь ход решения остается прежним.
ПРИМЕР 9.2
Рассмотрим исследование, в котором проводилось сравнение частоты рождения мальчиков в индейских семьях английского города, где подавляющую часть населения составляли выходцы из Америки12. Средняя частота рождения мальчиков в Англии составляет 52%, а в данном случае за период наблюдения из 20 родившихся детей мальчиков оказалось 5. Можно л и на этом основании сделать вывод о том, что в индейских семьях этого города мальчики рождаются достоверно реже, чем в целом по Англии?
Ш а г 1. Формулируем Н0: Р= 0,52 (выборочные данные согласуются с вероятностью рождения мальчиков Р- 0,52).
Ш а г 2. Выбираем для принятия статистического решения а = 0,05.
Ш а г 3. Составляем таблицу эмпирических и теоретических частот и вычисляем эмпирическое значение критерия.
Распределения: |
||
эмпирическое |
теоретическое |
|
Мальчики |
5 |
10,4 |
Девочки |
15 |
9,6 |
Сумма: |
20 |
20 |
Задача сводится к сопоставлению эмпирического распределения 5:15 с идентичным по общей численности теоретическим распределением (0,52:0,48). Следовательно:
(Л). = 5; (/э)2 = 15; (Л), = 10,4; (/т)2 = 9,6. Подставляем эти значения в формулу 9.1:
2 (5-10,4)2 , (15-9,б)2
X? = + тт = 5,84 , й]~ .
10,4 9,6 У
Ш а г 4. Определяем/;-уровень. По таблице критических значений теоретического распределения %2-Пирсона (приложение 4) для 1 видим, что наше эмпирическое значение х2 находится между критическими значениями для р = 0,05 и р = 0,01. Следовательно, р < 0,05.
Ш а г 5. Принимаем статистическое решение. Так какр < а, то Н0 можно отклонить.
Ш а г 6. Формулируем содержательный вывод. В индейских семьях этого города мальчики действительно рождаются достоверно реже, чем в целом по Англии (р < 0,05).
Обработка на компьютере: биномиальный критерий
Исходные данные: значения бинарной номинативной переменной (0, 1) определены для каждого члена выборки и представлены одним столбцом.
Выбираем: Апа1ухе (Метод) > 1Чопрагате1пс (Непараметрические ме
тоды) > Вшопна1... (Биномиальный). В открывшемся окне диалога переносим необходимую бинарную переменную из левого в правое окно (Те$1 УапаЫе Ш1), переменных может быть несколько.
Если теоретическое распределение является равномерным, то нажимаем ОК и получаем результаты.
Если теоретическое распределение не является равномерным, то необходимо задать ожидаемые (теоретические) пропорции (доли) для той градации, которая встречается в данных раньше. Для этого в окне Те$( ргорогйоп (Ожидаемая пропорция) вводим ожидаемую долю для градации. Нажимаем ОК и получаем результаты.
В1пош1а1 ТезЬ
Результаты (для данных примера 9.2)
СаЬедогу |
N |
ОЪзегуей Ргор. |
ТезС Ргор. |
ЕхасЬ 31д. (1-ЬаИе<3) |
||
уаг Сгоир 1 |
1.00 |
5 |
.25 |
. 52 |
.013(а) |
|
Сгоир 2 |
.00 |
15 |
.75 |
|||
ТоЬа! |
20 |
1.00 |
а А11:егпа1:л^е ЬуроЬЪезгз зЬаЬез ЬЪаЬ ЬЬе ргорогС1оп оЕ оазез л.п ЬЬе ЯгзЬ дгоир < . 52 .
ОЬзегуес! Ргор. — наблюдаемая доля для каждой категории (Са1е§огу); Те$1 Ргор. — теоретическая доля для первой из категорий; Ехас1 51§. (ЫаПей) — точное значение р-уровня для односторонней альтернативы (направленной гипотезы).
Примечание. Если проверяется ненаправленная гипотеза, то полученное значение р-уровня необходимо умножить на 2.
Более двух градаций
Как и в предыдущем случае, при сопоставлении нескольких градаций чаще всего проверяют гипотезу о том, различаются ли по численности соответствующие доли совокупности. Это соответствует задаче сопоставления эмпирического и равномерного теоретического распределения. Но ожидаемое (теоретическое) распределение может быть и любым другим: последовательность решения при этом не меняется. Для проверки подобных гипотез применяют критерий %2-Пирсона (формула 9.1), который еще называют критерием согласия (эмпирического и теоретического распределений).
ПРИМЕР 9.3
С целью предсказания результатов выборов исследовалось предпочтение потенциальными избирателями пяти политических лидеров. По результатам опроса репрезентативной выборки из 120 респондентов была составлена таблица распределения их предпочтений:
Политические лидеры: |
1 |
2 |
3 |
4 |
5 |
Кол-во «поклонников»: |
21 |
37 |
29 |
15 |
18 |
Можно ли утверждать, что в совокупности всех потенциальных избирателей наблюдаются существенные различия в соотношении предпочтений пяти политических лидеров? Иначе говоря, отличается ли распределение предпочтений потенциальных избирателей от равномерного распределения?
Отметим, что в отношении данной группы респондентов ответ очевиден: да, предпочтения распределены явно не равномерно. Но вопрос при статистической проверке формулируется иначе: можно ли распространить этот вывод на генеральную совокупность, из которой извлечена данная выборка респондентов? Поскольку N>100, выбираем для принятия статистического решения а = 0,01.
Н0: эмпирическое распределение соответствует теоретическому равномерному распределению. Задача сводится к сопоставлению эмпирического распределения с идентичным по общей численности, но равномерным теоретическим (ожидаемым) распределением:
Политические лидеры |
Распределение предпочтений: |
|
эмпирическое |
теоретическое |
|
1 |
21 |
24 |
2 |
37 |
24 |
3 |
29 |
24 |
4 |
15 |
24 |
5 |
18 |
24 |
Всего |
120 |
120 |
По формуле 9.1 число слагаемых Р= 5, к= 5,1=2, с1/= 4.
. 2 _ (21 -24)2 (37-24)2 , (29-24)2 , (15-24)2 , (18-24)2
У 1 1 1 1 15,555.
24 24 24 24 24
По таблице критических значений теоретического распределения %2-Пирсона (Приложение 4) для с!/= 4 видим, что наше эмпирическое значение %2Э меньше критического значения для р = 0,01. Следовательно, в соответствии со схемой определенияр- уровня для данного случая р < 0,01. Так как р < а, то принимаем статистическое решение: отклоняется нулевая гипотеза о соответствии распределения предпочтений в генеральной совокупности равномерному распределению. Таким образом, корректен следующий содержательный вывод: обнаружены различия в предпочтениях потенциальными избирателями пяти политических лидеров (р < 0,01).
Отметим, что в этом случае, отклоняя Н0, мы принимаем альтернативную гипотезу о том, что распределение предпочтений является неравномерным. Но альтернативная гипотеза не содержит и не может содержать утверждения о том, что в какой-то конкретной ячейке наблюдений больше, а в какой-то меньше. Любая конкретизация этого утверждения будет некорректной. Для утверждений о том, что в какой-то ячейке (градации) наблюдений больше или меньше, необходима дополнительная статистическая проверка.
Например, на первый взгляд справедливое утверждение о том, что лидер № 2 предпочитается чаще, чем лидер № 3 (пример 9.3), при дополнительной статистической проверке не подтверждается. Сравнение распределения 37:29 с ожидаемым равномерным распределением 33:33 дает: %2Э= 0,970; с1/= 1. Величина эмпирического значения критерия меньше критического значения для с1/= 1, р = 0,1 (эмпирическое значение располагается левее критического значения критерия для р = 0,1). Следовательно, в данном случае р > 0,1, Н0 не отклоняется: не обнаружены различия в предпочтениях двух политических лидеров (р > 0,1).
Подобная проблема множественных сравнений возникает всегда, если нулевая гипотеза содержит утверждение о равенстве более чем двух величин. При ее отклонении принимается альтернативная гипотеза, содержащая изрядную долю неопределенности: сравниваемые величины не тождественны. Для конкретизации этого утверждения необходимы, как правило, парные сравнения величин, в отношении которых проверяется гипотеза.
Обработка на компьютере: критерий согласия /2
Исходные данные: значения номинативной переменной (более 2-х градаций) определены для каждого члена выборки и представлены одним столбцом.
Выбираем: Апа!уге (Метод) > 1\'опрагате1пс 1е$1§ (Непараметрические методы) > СЫ-эдиаге... (Хи-квадрат). В открывшемся окне диалога переносим необходимую переменную из левого в правое окно (Те$1 УапаЫе Ы81), переменных может быть несколько.
Если теоретическое распределение является равномерным, то нажимаем ОК и получаем результаты.
Если теоретическое распределение не является равномерным, то необходимо задать ожидаемые (теоретические) пропорции (доли) для каждой градации (сумма долей должна быть равна 1). Для этого вместо Ехрес1ей Уа1иев: А11 са(е§опе$ е^иаI (Ожидаемые значения: все категории тождественны) отмечаем точкой Ехрес1ес1 Уа1ие$: Уа1ие$ (Значения). После этого вводим ожидаемую долю для наименьшей категории, затем нажимаем АсМ (Добавить), затем вводим долю для наименьшей из оставшихся категорий, и т. д. — до последней категории. Последовательность значений долей появится в нижнем окне. Нажимаем ОК и получаем результаты.
Результаты (для данных примера 9.3)
А) Таблица частот (РУедиепс1е$)
уаг
ОЪзеглгей N |
ЕхресЪесЗ N |
Кез1сЗиа1 |
|
1.00 |
21 |
24.0 |
-3.0 |
2.00 |
37 |
24.0 |
13 .0 |
3.00 |
29 |
24.0 |
5.0 |
4.00 |
15 |
24.0 |
-9.0 |
5.00 |
18 |
24.0 |
-6 . 0 |
ТоЬа! |
120 |
ОЬзегуес! — эмпирические частоты, Ехрес1е<1 — теоретические частоты. В) Результаты статистической проверки (Те«1 $1аи$11с$):
ТезЬ ЗЬа1:1вЬ1с8
У |
|
СЫ-5диаге (а) Азушр. 51д. |
13 .333 4 . 010 |
а 0 се11з (.0%) ЬаVе ехресЬед 1:гедиепс1ез 1езз ЬЪап 5. ТЪе ш1п1шиш ехресСей се11 Егедиепсу 13 24.0.
СЫ-8яиаге — значение %2Э; А$утр. — /ьуровень значимости.
АНАЛИЗ ТАБЛИЦ СОПРЯЖЕННОСТИ
Анализ таблиц сопряженности применяется для решения задач, которые могут быть сформулированы следующим образом:
Например, различаются ли мужчины и женщины по распределению предпочтений пяти политических лидеров?
Например, связано ли соотношение предпочтений трех групп напитков (соки, лимонады, минеральные воды) с сезонностью (зима, весна, лето, осень)?
Нетрудно заметить, что эти задачи отличаются лишь словесными формулировками. Так, изучение связи между двумя номинативными переменными тождественно сравнению градаций одной номинативной переменной по распределению другой номинативной переменной.
Например, изучать сезонную зависимость предпочтений различных напитков — то же самое, что сравнивать сезоны по распределению предпочтений этих напитков. А изучать связь двух оснований классификации респондентов — по полу и по политической ориентации — то же самое, что сравнивать распределение мужчин и женщин по политической ориентации.
В подобных случаях подразумевается анализ таблиц сопряженности, в которых столбцы соответствуют сравниваемым распределениям (градациям одной номинативной переменной), а строки соответствуют градациям сравниваемых распределений (градациям другой номинативной переменной).
Формулировка проверяемой Н0: классификация объектов (людей, событий) по одному основанию не зависит от их классификации по другому основанию.
Исходные данные: определена принадлежность каждого объекта выборки к одной из градаций первой номинативной переменной и к одной из градаций второй номинативной переменной. Иными словами, две номинативные переменные измерены на выборке объектов. Строки таблицы сопряженности соответствуют градациям одной номинативной переменной, столбцы — градациям другой номинативной переменной.
Если проверка содержательной гипотезы предполагает анализ таблицы сопряженности, то принципиальным является вопрос о размерности таблицы. Будем различать два случая:
Эти случаи различаются как порядком расчетов, так и особенностями интерпретации.
Число градаций больше двух
По сравнению с анализом классификации, специфика применения критерия х2-Пирсона (формула 9.1) к таблицам сопряженности заключается в том, что теоретические частоты рассчитываются отдельно для каждой ячейки таблицы. Таким образом, число слагаемых в формуле 9.1 равно количеству ячеек таблицы сопряженности и равно Р = к-1, где к — число строк, / — число столбцов:
к-1 ( Г — Г \2
х1=ь ; > а/=(к-\)(1-\).
(9.2)
/=1
Формула для расчета теоретической частоты для ячейки /-строки и ./-столбца:
и
//■/у
(9.3)
N
где — сумма частот во всех ячейках /-строки;^- — сумма частот во всех ячейках /-столбца; N— сумма частот всей таблицы сопряженности.
ПРИМЕР 9.4
Для каждого респондента репрезентативной выборки определены: а) пол; б) один из пяти предпочитаемых политических лидеров:
Эмпирические |
^(политический лидер) |
||||||
частоты |
1 |
2 |
3 |
4 |
5 |
Всего: |
|
ЛГ(пол) |
муж.(1) |
5 |
25 |
10 |
8 |
3 |
51 |
жен. (2) |
11 |
12 |
19 |
5 |
7 |
54 |
|
Всего: |
16 |
37 |
29 |
13 |
10 |
105 |
Проверяется содержательная гипотеза о зависимости политических предпочтений от пола.
Н0: классификации объектов по двум основаниям являются независимыми (распределение объектов по полу не зависит от их распределения по предпочтениям политических лидеров). Проверяем Н0 на уровне а = 0,05.
Шаг 1. Составляем таблицу сопряженности для теоретических (ожидаемых) частот — с теми же полями, что и для таблицы эмпирических (наблюдаемых) частот. Рассчитываем значения теоретических частот для каждой ячейки этой таблицы по формуле 9.3.
„ 51-16
105 51-37 105
= 17,97;
для ячеики (х,, у,) /т———'>''>
для ячейки (х,, у2) /т
51-29 ,.„„ для ячейки (х,,_у3) Л ~ 105 =14,09;
/■ 5МЗ «1
для ячейки (х,, >>4) Л = ^ = .
г 5110 ,„,.
для ячейки (хи у5) Л = ^ = %во,
, 54 16
для ячейки (х2, У\) Л - ^ -
54-37
для ячейки (х2, у2) Л = ^ = 19,03;
г 54-29 ,.П1 для ячейки (х2, у$) Л = ^ =14,91,
54'13 /с/со для ячейки (х2, уц) Л - ^ -
, _ 5410 ... для ячейки (х2, у5) Л —- э>14-
Теоретические частоты |
/(политический лидер) |
||||||
1 |
2 |
3 |
4 |
5 |
Всего: |
||
Х(пол) |
муж.(1) |
7,77 |
17,97 |
14,09 |
6,31 |
4,86 |
51 |
жен. (2) |
8,23 |
19,03 |
14,91 |
6,69 |
5,14 |
54 |
|
Всего: |
16 |
37 |
29 |
13 |
10 |
105 |
Отметим, что суммы теоретических частот по строкам (столбцам) должны быть равны соответствующим суммам эмпирических частот.
Ш а г 2. Рассчитываем эмпирическое значение критерия х2-Пирсона и число степеней свободы по формуле 9.2.
2 _ (5-1,II)2 (25-17,97)2 (10-14,09)2 (8-6,31)2 (3-4,86)2 (11-8,23)2
~ 7,77 17,97 14,09 6,31 4,86 8,23
(12-19,03)2 (19-14,91)2 (5-6,69)2 (7-5,14)2 _п
19,03 14,91 6,69 5,14
ё/= (к- 1)(/- 1) = (2- 1)(5 - 1) = 4.
Ш а г 3. Определяем р-уроеень по таблице критических значений %2-Пирсона и принимаем статистическое решение. Для аУ= 4 наше эмпирическое значение располагается между критическими для р = 0,05 ир = 0,01. Следовательно, /ь уровень в нашем случае р < 0,05. Мы можем отклонить Н0.
Ш а г 4. Формулируем содержательный вывод. Обнаружена статистически значимая зависимость политических предпочтений от пола (р < 0,05).
Порядок расчетов остается тем же для любого числа градаций того и другого признака, за исключением случая таблиц сопряженности 2x2. Для упро
щения арифметических расчетов может быть использована формула, эквивалентная формуле 9.2:
/2 ■> У
-1
ЕЕ-
/ = 1 у = 1 /) Х/у
где И— общая численность выборки; к, I — число строк и столбцов таблицы сопряженности.
Обратим внимание, что при отклонении Н0 принимается альтернативная гипотеза о связи двух оснований классификации, которая проявляется по крайней мере для одной ячейки таблицы сопряженности. Но остается неизвестным то, в отношении каких именно ячеек таблицы сопряженности связь проявляется, а в отношении каких — не проявляется. Иными словами, возникает проблема множественных сравнений. И для дальнейшей конкретизации результатов необходим анализ соотношения 2-х долей или таблиц сопряженности 2x2.
Исследование связи пола и предпочтений политических лидеров (см. пример 9.4) может быть продолжено. Так, может быть дополнительно проверена гипотеза о том, что лидер № 2 предпочитается чаще мужчинами, чем женщинами. Тогда необходимо сравнивать эмпирическое распределение предпочтений мужчин и женщин (25:12) с равномерным распределением (13,5:13,5) — при помощи метода сопоставления эмпирического и теоретического распределений. Может быть также проверена гипотеза о том, что лидер № 2 чаще предпочитается мужчинами, а лидер № 3 — женщинами. Тогда необходимо сопоставить два эмпирических распределения: 25:12 и 10:19 — при помощи анализа таблиц сопряженности 2x2.
Таблицы сопряженности 2x2
Существует большое разнообразие различных ситуаций, когда по результатам исследования может быть построена таблица сопряженности 2x2. Их объединяет то, что объекты (испытуемые, события) классифицированы по двум основаниям, каждое из которых представляет собой дихотомию. Важно различать два варианта такой классификации объектов:
ПРИМЕРЫ
Для независимых выборок применяется критерий х2-Пирсона, а для зависимых более адекватным является метод Мак-Нимара.
Независимые выборки
Это наиболее часто встречающаяся ситуация применения таблиц 2x2, когда одна группа объектов классифицируется по двум дихотомическим основаниям и проверяется гипотеза о связи этих двух оснований классификации.
По сравнению с другими таблицами сопряженности особенность таблиц 2x2 проявляется в трех отношениях.
Рассмотрим эти особенности на примере.
ПРИМЕР 9.5
Предположим, для изучения влияния 2-х условий запоминания материала 100 испытуемых были случайным образом разделены на две группы: по 50 человек для каждого из условий. После обучения количество усвоивших этот материал в первой группе составило 24 человека, а во второй — 34 человека. Можно ли утверждать, что различия в условиях влияют на результативность обучения?
Данные примера 9.5 могут быть представлены тремя способами, но только один из них является верным.
Правильный способ представления данных примера 9.4 в таблице:
Усвоение материала |
Всего: |
||
есть |
нет |
||
Условие 1 |
24 |
26 |
50 |
Условие 2 |
34 |
16 |
50 |
Всего: |
58 |
42 |
100 |
В последних двух случаях таблицы не содержат информации о тех, кто не усвоил материал. Поэтому уменьшаются шансы обнаружить достоверные различия, даже если они есть.
Как отмечалось, специфика применения х2-Пирсона в подобных случаях проявляется и в том, что это тот случай, когда допустима проверка как ненаправленной, так и направленной статистической гипотезы. Важность определения того, какая из этих двух гипотез проверяется, обусловлена тем, что в отношении одних и тех же данных при проверке направленной альтернативы значение р-уровня в два раза меньше, чем при проверке ненаправленной альтернативы (см. главу 7: Направленные и ненаправленные альтернативы).
Варианты неправильного представления в таблице данных примера 9.5:
Усвоение материала |
||
наблюдаемое |
ожидаемое |
|
Условие 1 |
24 |
29 |
Условие 2 |
34 |
29 |
Усвоение материала |
||
участвовали |
усвоили |
|
Условие 1 |
50 |
24 |
Условие 2 |
50 |
34 |
Любые сомнения при выборе между направленной и ненаправленной статистической гипотезой решаются в пользу ненаправленной альтернативы!
Рассмотрим различия ненаправленной и направленной альтернативы в отношении данных примера 9.5. Они могли быть получены в ходе сравнения двух способов запоминания — без предварительных предположений о том, какой способ лучше. Исследователя при этом интересуют два случая (направления) отклонения Н0: а) «запоминание лучше при условии 1»; б) «запоминание лучше при условии 2». Такая проверка предполагает ненаправленную альтернативу. Соответственно, при отклонении Н0 допустим как тот, так и другой вывод. Или эти данные могли быть получены в ходе проверки предположения о том, что новый (второй) способ является более эффективным, чем традиционный (первый). Исследователя тогда будет интересовать только один исход: «запоминание лучше при условии 2». Эта проверка предполагает направленную альтернативу, а при отклонении Н0 допустим только один вывод — о превосходстве условий 2.
ПРИМЕР, КОГДА ОПРАВДАНА ПРОВЕРКА НАПРАВЛЕННОЙ ГИПОТЕЗЫ
Проверялась гипотеза о влиянии природы родства на преступность близнеца. Данные относятся к 30 преступникам мужского пола, каждый из которых имел брата близнеца. Тридцать человек были классифицированы: а) по природе родства (однояйцовые или разнояйцовые близнецы); б) по виновности или невиновности брата:
Виновность брата: |
Всего: |
||
виновен |
не виновен |
||
Однояйцовый близнец |
10 |
3 |
13 |
Разнояйцовый близнец |
2 |
15 |
17 |
Всего: |
12 |
18 |
30 |
(Справочник по прикладной статистике/Под ред. Э.Ллойда, У. Ледермана.М., 1989. Т. 1.С. 376).
Как указывают различные авторы, односторонний критерий х2-Пирсона, который применяется для ненаправленных гипотез, в данном случае «превращается» в двусторонний1. Таким образом, для проверки направленных гипотез р-уровень для таблиц 2x2, определенный по таблице для ненаправленной гипотезы (как двусторонний), делится на 2.
Другая особенность применения х2-Пирсона заключается во введении поправки на непрерывность Йетса. В соответствии с ней формула 9.1 для таблиц 2x2 приобретает вид:
\2
%1 = ^ (1/э /т1 0,5)2 , <//= 1. (9.4)
( = 1 /т
ПРИМЕР 9.5 (продолжение)
Предположим, данные примера 9.5 относятся к ситуации проверки содержательного предположения о большей эффективности нового метода обучения (условие 2) по сравнению с традиционным методом (условие 1).
Ш а г 1. Формулируется направленная статистическая гипотеза. Направленная Н0: При условии 2 вероятность усвоения материала не выше, чем при условии 1. В связи с тем, что объемы сравниваемых выборок не очень велики, можно принять а = 0,05.
Ш а г 2. Вычисляется эмпирическое значение х2-Пирсона с поправкой Йетса. Теоретические частоты подсчитываем по формуле 9.3:
/г
/з |
/г |
(|/, -Л -0,5)2 А |
24 |
29 |
0,698 |
26 |
21 |
0,964 |
34 |
29 |
0,698 |
16 |
21 |
0,964 |
Сумма: |
100 |
3,325 |
N '
, _ 50-58 .50-42 _ ,,, _ 50-58 , _ 50-42
•'11 "" , АА ~ -Л 2 '>/21 ' 22 ~
100 " 100 " 100 " 100
Эмпирическое значение х2-Пирсона с поправкой на непрерывность х2 = 3,325.
Ш а г 3. Определение р-уровня для направленной статистической гипотезы. Определяем по таблице критических значений критерия х2-Пирсона р-уровень значимости. Наше эмпирическое значение располагается между критическими для р = 0,1 и р = 0,05. Следовательно, для ненаправленных гипотез в нашем случае р < 0,1. Но с учетом того, что мы проверяем направленную гипотезу, окончательное значениер-уровня: р < 0,05.
1 Доказательство этого см., например: Кендалл М., Стьюарт А. Статистические выводы и связи. М., 1973. С. 744-745; Справочник по прикладной статистике. В 2 т. Т. 1 / Под ред. Э. Ллойда, У. Ледермана, Ю. Тюрина. М„ 1989. С. 370-377.
Ш а г 4. Принятие статистического решения и формулировка содержательного вывода. Статистическое решение: Н0 отклоняется. Содержательный вывод: эффективность усвоения материала в условиях обучения № 2 статистически значимо выше, чем в условиях № 1 (х2 = 3,325, 4Г= 1 ,р< 0,05).
Отметим, что при проверке ненаправленной гипотезы для тех же данных статистическое решение и, следовательно, содержательный вывод были бы другими.
X2-Пирсона с поправкой на непрерывность применим для анализа таблиц сопряженности 2x2, когда N>40,0 если ни одна из теоретических частот не меньше 5, то при N>20}
Если таблица сопряженности 2x2 не удовлетворяет этим требованиям (%2-Пирсона с поправкой на непрерывность не применим), то можно воспользоваться расчетом точного значения р-уровня по Фишеру (ПзИег'з ехас( (ез1 — точный критерий Фишера) — односторонним (1-зк1ес1), для направленных гипотез, или двусторонним (2-$нЗес1), для ненаправленных альтернатив. Его расчет «вручную» является трудоемким, поэтому необходимо воспользоваться компьютерной программой (8Р88, §Ш1з(лса — см. конец этой главы).
Повторные измерения
Структура исходных данных соответствует ситуации, когда одна выборка объектов классифицирована на две группы дважды по одному и тому же основанию. Рассмотрим проверку гипотезы в отношении таких данных на примере.
ПРИМЕР 9.6
Исследовалось влияние убедительной лекции о введении моратория на смертную казнь. Число респондентов N= 60. Подсчитывалось число тех, кто «за», и тех, кто «против» смертной казни до и после лекции. Одна переменная — «до лекции» («за», «против»), другая — «после лекции» («за», «против»).
В таблице исходных данных в таких случаях каждой строке (объекту выборки) соответствуют два значения (в двух столбцах — «до», «после») одной и той же бинарной номинативной переменной («за», «против»). Таблица сопряженности для таких данных (например, построенная при помощи компьютерной программы):
До: |
Всего: |
|||
«За» |
«Против» |
|||
После: |
«За» |
а= 16 |
Ъ= 10 |
26 |
«Против» |
с =26 |
8 |
34 |
|
Всего: |
42 |
18 |
60 |
Для таких данных х2-Пирсона с поправкой на непрерывность не применим!
' См. там же.
Действительно, применяя этот метод, мы будем проверять гипотезу о связи классификации ответов до лекции с классификацией ответов после лекции, а нас интересует влияние лекции («до» — «после») на распределение ответов («за» — «против»). Тем не менее, попробуем применить х2-Пирсона с поправкой на непрерывность к этой таблице. Получим: х2 = 0,93, й/= 1, р > 0,1.
В подобных случаях применяется метод Мак-Нимара. Этот метод позволяет сопоставить долю тех, кто не обладал некоторой характеристикой (0) до воздействия, но стал обладать ею после воздействия (1), с долей тех, кто обладал этой характеристикой до воздействия (1) и перестал обладать ею после воздействия (0). Иначе говоря, метод позволяет сопоставить диагональные элементы таблицы сопряженности 2x2 (0,1 и 1,0 или 0,0 и 1,1), построенной непосредственно по дважды проведенной дихотомической классификации одной и той же выборки. Речь идет о таблице 2x2, построенной непосредственно по результатам дихотомической классификации двух зависимых выборок (одной и той же выборки — дважды):
После: |
До: |
|
0 |
1 |
|
0 |
а |
Ь |
1 |
с |
(1 |
Метод Мак-Нимара позволяет по этой таблице проверить две гипотезы: о соотношении а и с? (0,1 и 1,0); о соотношении с и Ъ (0,0 и 1,1).
Проверка гипотезы проводится по г-критерию по формулам для эмпирического значения1:
с-Ь а-й
= I—- или г3 =-т==, (9.5)
л1с + Ь у/а + с!
где си Ъ — одна пара диагональных элементов таблицы, для проверки одной гипотезы; ажй — другая пара диагональных элементов, для проверки другой гипотезы. Для определения /ьуровня значимости эмпирическое значение гэ сравнивается с теоретическим — единичным нормальным распределением.
Ограничение на применение метода Мак-Нимара: сумма сравниваемых частот не должна быть меньше 10.
ПРИМЕР 9.6 (продолжение)
Рассмотрим применение метода Мак-Нимара на примере проверки содержательной гипотезы о влиянии лекции на мнение респондентов (данные примера 9.6).
Ш а г 1. Построение таблицы 2x2.
До: |
|||
«За» |
«Против» |
||
После: |
«За» |
о= 16 |
Ь= 10 |
«Против» |
с =26 |
ё= 8 |
1 Данная реализация метода заимствована из: Гласс Дж., Стенли Дж. Статистические методы в педагогике и психологии. М., 1976. В программе ЗР58 используется критерий х2.
Ш а г 2. Формулировка статистической гипотезы.
Проверим Н0: с = Ь (ненаправленная гипотеза), при а = 0,05.
Отметим, что проверка гипотезы относительно других диагональных элементов
(Н0: а = с0 в данном случае не имеет смысла.
Ш а г 3. Вычисление эмпирического значения критерия.
с-Ь 26-10 Ъ = , = , = 2,67. л]с + Ь V 26 + 10
Ш а г 4. Определение р-уровня (приложение 1).
Воспользуемся таблицей единичного нормального распределения:
а) находим в таблице теоретическое значение г, ближайшее меньшее к абсолютному (без учета знака) эмпирическому значению гэ: гт = 2,65;
б) определяем площадь под кривой справа от V- Р= 0,004;
в) вычисляем р-уровень по формулер<2Р:р< 0,008.
Ш а г 5. Принятие статистического решения и статистический вывод. На уровне а = 0,05 гипотеза Н0 отклоняется. Содержательный вывод: доля лиц, выступающих против смертной казни после лекции статистически значимо увеличилась (г= 2,67; р < 0,008).
Обработка на компьютере: таблицы сопряженности (кросстабуляции)
Последовательность шагов не зависит от количества градаций и зависимости выборок. Указанные обстоятельства влияют только на то, какие из результатов следует принимать во внимание.
Исходные данные: значения двух номинативных переменных (2 и более градации), с одинаковым или разным числом градаций, определены на одной выборке объектов и представлены двумя столбцами — по одному для каждой из переменных.
Выбираем: Апа1уге (Метод) > БехспрИуе 8Ш18ЙС8 (Описательные статистики) > Сго88{аЬ«... (Таблицы сопряженности). В открывшемся окне диалога переносим одну из переменных справа в окно Строки (Ко\у(«)), другую — в окно Столбцы (Со1итп(8)), нажимаем кнопку Статистики (8Ы18ЫС8...).
Решаем: Если выборки независимые (без повторных классификаций), выбираем %2, отмечая его «флажком» (СЫ-^иаге). Если выборки зависимые: одна и та же номинативная переменная (2 градации) измерена дважды на данной выборке, то выбираем метод Мак-Нимара, отмечая его «флажком» (Мс№таг). Нажимаем (СопШше). Нажимаем ОК.
Результаты
Б) Таблица сопряженности (Сгозз1аЪи1аиоп).
Примечание. Если обрабатываются таблицы 2x2 с независимыми классификациями, то при проверке направленных гипотез значение р-уровня для Х2-Пирсона (Реагзоп С1^^-8^иа^е — Азутр. 8щ. (2-зк1ес1)) делится на два, либо берется односторонний /ьуровень (Ехас! 8)§. (1-з1с1ес1)) для точного критерия Фишера (Р^Ьег'з Ехас! Тез!).
АНАЛИЗ ПОСЛЕДОВАТЕЛЬНОСТИ: КРИТЕРИЙ СЕРИЙ
Как следует из названия, метод применяется для анализа последовательности объектов (явлений, событий), упорядоченных во времени или в порядке возрастания (убывания) значений измеренного признака. Кроме того, метод требует представления последовательности в виде бинарной переменной — как чередования событий 0 и 1. Поэтому исходные данные, как правило, требуют преобразования: упорядочивания (по времени или по уровню) и приведения к бинарному виду.
Математическая идея критерия основана на подсчете числа серий в упорядоченной последовательности событий двух типов, например, 0 и 1. Серия — это последовательность однотипных событий, непосредственно перед и после которой произошли события другого типа. Гипотеза Н0 о случайном распределении событий 1 среди событий 0 может быть отклонена, если количество серий либо слишком мало, либо слишком велико.
ПРИМЕР 9.7
Предположим, было получено две последовательности успехов (1) и неудач (0) для двух игроков. Каждый из них играл 20 раз с равным количеством выигрышей (п = 10) и проигрышей (т = 10): п + т = 20. Игрок № 1:10000000011111101110 - число серий №= 6 Игрок № 2: 01010010101011010011- число серий IV= 16 В отношении первого игрока Н0 будет отклонена, если число серий слишком мало, а в отношении второго игрока — если число серий слишком велико. При отклонении Н0 для первого игрока может быть сделан вывод о том, что достоверно чаще после успеха следует успех, а после проигрыша — проигрыш, а для второго игрока, что после проигрыша достоверно чаще следует выигрыш, и наоборот.
Проблема направленности гипотезы Н0 должна решаться еще до проведения исследования. Понятно, что исследователя может интересовать любое отклонение от Н0 — как в сторону слишком малого, так и слишком большого числа серий IV. Тогда необходима проверка ненаправленной гипотезы. Если же исследователя интересуют только малые значения РГили только слишком большие значения Ж, то необходима проверка направленной гипотезы. Важность предварительного определения направленности гипотезы обусловлена тем, что при одном и том же числе серий IVр-уровень для направленной гипотезы будет в два раза меньше, чем для ненаправленной гипотезы. Любые сомнения в направленности гипотезы необходимо решать в пользу выбора ненаправленной альтернативы.
Предположим, что для исследователя, получившего данные из примера 9.7, заранее не было известно, какая альтернатива будет приниматься в случае отклонения Н0. Следовательно, должна проверяться ненаправленная Н0, допускающая отклонение Н0 как в случае слишком малого, так и в случае слишком большого числа серий Ж
Точное распределение числа серий Жпри выполнении Н0, следовательно, и точное значение р-уровня значимости для конкретного Ж (при конкретных значениях тип) может быть получено с помощью комбинаторного анализа, например, при помощи компьютера.
При вычислениях на компьютере точное значение р-уровня может быть вычислено при выборе опции Ехас1... (Точно...) в диалоге анализа Кип$... (Серии...) с последующим заданием метода Моп*е Саг1о. Так, для примера 9.7 точные значения р-уровня (для ненаправленных Н0, двусторонние): для игрока № 1 р = 0,035; для игрока № 2 р = 0,035.
Если численность т(п) < 20, то для проверки Н0 применяются таблицы критических значений для числа серий (приложение 5).
ПРИМЕР 9.7 (продолжение)
Проверим ненаправленную Н0 в отношении двух игроков с использованием таблицы критических значений числа серий для а = 0,05 (приложение 5). Для этого достаточно соотнести эмпирическое значение числа серий с табличными значениями (нижним (^0,025и верхним \У0<0975). Если эмпирическое значение меньше или равно Н^о,о25 или больше или равно 0975, то Н0 отклоняется.
Ш а г 1. Принимаем статистические решения. Для т = 10, п = 10: ^025= 6; И^, 0975 = 16. Для игрока № 1: (^ = 6, Н0 отклоняется. Для игрока № 2: Щ = 16, Н0 отклоняется.
Шаг 2. Формулируем содержательные выводы. Для игрока № 1: достоверно чаще после успеха следует успех, а после проигрыша — проигрыш (р< 0,05). Для игрока № 2: после проигрыша достоверно чаще следует выигрыш, а после выигрыша — проигрыш.
Альтернативным способом определения /ьуровня является применение 2-критерия серий, основанного на том факте, что число серий Ж при выпол
нении Н„ распределено приблизительно нормально с известными М^ иог. Формула для определения эмпирического значения 2-критерия серии".
Ж + 0,5-Мж _Ж + 0,5-[1 + 2ит/(п + т)] ^ ^
2пт(2пт-п-т) 2
(п + т) (п + т-1)
Ограничение на применение 2-критерия серий: т > 20, п > 20; т и п несущественно различаются. Если т и п существенно различаются, то следует воспользоваться комбинаторным методом (например, Монте Карло в программе 8Р88).
ПРИМЕР 9.8
Предположим, исследуется динамика научения в игровом задании. Исследователь предполагает частые повторы проигрышей в начале и выигрышей — в конце последовательности игр (предполагается проверка направленной гипотезы). Игроком сыграно 40 партий, из них проиграно 20, выиграно 20, число серий 15. К концу последовательности игр наблюдается преобладание выигрышей. Проверим гипотезу с применением ^-критерия серий.
Шаг 1. Формулируем Н0: число серий соответствует случайному распределению выигрышей в последовательности проигрышей (альтернативная Н,: число серий достаточно мало, чтобы говорить о неслучайном преобладании выигрышей в конце последовательности игр). Принимаем а = 0,05.
Ш а г 2. Вычислим эмпирическое значение ^-критерия для т = 20; п = 20; Щ, = 15:
М№= 1+ 2пт/(п + т) =21;
\2пт(2пт-п-т) .... 7 15 + 0,5-21 , _,
Ош = \ х =3,12, А, = = -1,/о.
л1(п+т)2(п + т-\) 3,12
Ш а г 3. Определимр-уровень. Для этого воспользуемся таблицей стандартных нормальных вероятностей (приложение 1). При использовании ^-распределения для проверки направленной гипотезы/>-уровень равен площади Рпод нормальной кривой справа от +2Э (слева от -2)- 2 — 1,76 соответствует площадь Р= 0,039. Следовательно, р < 0,04.
Ш а г 4. Принимаем статистическое решение и формулируем содержательный вывод. Отклоняем Н0: число серий статистически значимо мало. Содержательный вывод: к концу последовательности игр статистически достоверно возрастает частота выигрышей (р < 0,04).
2 =
'IV
Отметим, что если бы проверялась ненаправленная гипотеза, то найденное значение вероятности Р = 0,039 следовало бы умножить на 2: р < 2Р. Следовательно, р < 0,078, и Н0 на уровне а = 0,05 не отклоняется.
Критерий серий применим для решения двух классов задач. Помимо исследования временной последовательности событий Хи У, или динамики изменения количественного признака, метод может применяться и для провер-
1 По Ллойду Э., Ледерману У., с. 131.
ки гипотез о различии между двумя выборками по уровню и изменчивости признака, измеренного в количественной шкале. В связи с этим применение метода требует решения проблемы преобразования исходных данных.
Проблема преобразования исходных данных. Как было отмечено, для применения метода данные необходимо представить в виде одной бинарной переменной. В зависимости от задачи исследования и вида исходных данных это может быть сделано разными способами.
Обработка на компьютере: анализ последовательности
Исходные данные: изучаемый признак (столбец) представляет собой упорядоченную последовательность значений (по времени или по уровню выраженности). Если это последовательность во времени, то допустимы количественные значения. Если значения не количественные, то они должны представлять собой последовательность 0 и 1.
Выбираем: Апа1уге (Метод) > 1Чопрагате1пс 1е$15... (Непараметрические методы) > Кип5... (Серии). В открывшемся окне диалога переносим необходимую переменную из левого в правое окно (Те§1 УапаЫе 1л $1), переменных может быть несколько.
Решаем: Выбираем точку деления (Си* рош1). Если переменная бинарная (0,1), то ставим флажок только в окошко Пользовательская и задаем «1» (Си8(от: 1). Если переменная количественная, то выбираем либо медиану (МесИап), либо среднее (Меап). Здесь же можем выбрать расчет точного значения р-уровня: нажимаем Ехас1... (Точно...) и отмечаем Моп1е Саг1о. Нажимаем СопНпие. Нажимаем ОК.
Результаты:
Примечание. Если проверяется направленная гипотеза, то значение ^-уровня делится на 2.
Глава 10
КОРРЕЛЯЦИОННЫЙ АНАЛИЗ
Корреляционный анализ — это проверка гипотез о связях между переменными с использованием коэффициентов корреляции. Наиболее распространенные коэффициенты корреляции подробно рассмотрены в главе 6. В этой главе разбираются вопросы, непосредственно касающиеся проверки гипотез с применением коэффициентов корреляции.
Коэффициент корреляции — это мера прямой или обратной пропорциональности между двумя переменными. Он чувствителен к связи только в том случае, если эта связь является монотонной — не меняет направления по мере увеличения значений одной из переменных.
Основные показатели: сила, направление и надежность (достоверность) связи. Сила связи определяется по абсолютной величине корреляции (меняется от 0 до 1). Направление связи определяется по знаку корреляции: положительный — связь прямая; отрицательный — связь обратная. Надежность связи определяется ^-уровнем статистической значимости (чем меньше ^-уровень, тем выше статистическая значимость, достоверность связи).
Условия применения коэффициентов корреляции:
Основная проверяемая статистическая гипотеза в отношении коэффициентов корреляции является ненаправленной и содержит утверждение о равенстве корреляции нулю в генеральной совокупности Н0: гху = 0. При ее отклонении принимается альтернативная гипотеза Н,: гху ^ 0 о наличии положительной (отрицательной) корреляции — в зависимости от знака выборочного (вычисленного) коэффициента корреляции.
Содержательные выводы. Если по результатам статистической проверки Н0: г = 0 не отклоняется на уровне а, то содержательный вывод: связь между хиу не обнаружена. Если Н0: г= 0 отклоняется на уровне а, то содержательный вывод: обнаружена положительная (отрицательная) связь между х и у.
Что влияет нар-уровень значимости корреляции .'Статистическая значимость коэффициента корреляции тем выше (/^-уровень меньше), чем больше его абсолютная величина (при одном и том же объеме выборки) и чем больше объем выборки (при одном и том же значении корреляции). При большой численности выборки даже слабые связи могут достигать статистической значимости.
Например, для одного и того же значения гху = 0,200, если N < 90, то р > 0,05 — корреляция статистически не значима; а если УУ> 100, то р< 0,05 — связь статистически достоверна.
Величина корреляции не всегда отражает силу связи. Соответственно, ^-уровень значимости не всегда отражает надежность связи. Наиболее распространенные причины — «выбросы», «ложные» корреляции, нелинейные связи (см. раздел главы 6 «Величина корреляции и сила связи»).
КОРРЕЛЯЦИЯ МЕТРИЧЕСКИХ ПЕРЕМЕННЫХ
Статистическая гипотеза о связи двух метрических переменных проверяется в отношении коэффициента корреляции г-Пирсона, который вычисляется по формуле:
_ 1 = 1 .
Основной (нулевой) статистической гипотезой является равенство г-Пирсона нулю в генеральной совокупности (Н0: г =0). Определение р-уровня значимости осуществляется при помощи критерия ?-Стьюдента:
# = N-2- (ЮЛ)
С целью упрощения проверки при обработке данных «вручную» обычно пользуются таблицами критических значений гху, которые составлены с помощью этого критерия (приложение 6). При вычислениях на компьютере статистическая программа (ЗР55, 5>1а1лз1лса) сопровождает вычисленный коэффициент корреляции более точным значением р-уровня.
Для статистического решения о принятии или отклонении Н0 обычно устанавливают а = 0,05, а для выборок большого объема (около 100 п более) а = 0,01. Если р < а, Н0 отклоняется и делается содержательный вывод о том, что обнаружена статистически достоверная (значимая) связь между изучаемыми переменными (положительная или отрицательная — в зависимости от знака корреляции). Когда р > а, Н0 не отклоняется, и содержательный вывод ограничен констатацией того, что связь (статистически достоверная) не обнаружена.
ПРИМЕР 10.1
На выборке N = 20 (учащиеся 8-го класса) были измерены два показателя интеллекта: вербального (х) и невербального (.у) (см. пример 6.1). Коэффициент корреляции составил: гху = 0,517. Проверим гипотезу о связи этих показателей двумя способами. Подставив величины N= 20 и гху= 0,517 в формулу 10.1, получаем: 1Э = 2,562; с!/= 18. По таблице критических значений/-Стьюдента (приложение 2) для с1/= 18 видим, что эмпирическое значение находится между критическими значениями для р = 0,05 ир = 0,01.
р > 0,1 р < 0,1 р < 0,05 р < 0,01 р < 0,001
р = 0,1 р = 0,05 р = 0,01 р = 0,001
Следовательно, для нашего случая р < 0,05. Тот же результат мы получим, минуя вычисление /-Стьюдента, воспользовавшись таблицей критических значений коэффициента корреляции /--Пирсона (приложение 6): в строке, соответствующей Ы— 20, видим, что эмпирическое значение корреляции находится между критическими значениями для р = 0,05 кр = 0,01. Следовательно, р < 0,05. (При расчете на компьютере значение коэффициента корреляции будет сопровождаться точным значением /ьуровня, для данного случая: р = 0,019.)
Статистическое решение: Н0: ?ху = 0 отклоняется для а = 0,05. Содержательный вывод: обнаружена статистически достоверная положительная связь вербального и невербального интеллекта для учащихся 8-го класса (гху = 0,517, N=20, р< 0,05).
Замечания к применению метрических коэффициентов корреляции. Если связь (статистически достоверная) не обнаружена, но есть основания полагать, что связь на самом деле есть, то следует проверить возможные причины недостоверности связи.
Если связь не обнаружена, но есть основания полагать, что связь на самом деле есть...
Если связь статистически достоверна, то прежде, чем делать содержательный вывод, следует исключить возможность «ложной» корреляции.
ЧАСТНАЯ КОРРЕЛЯЦИЯ
Если изучается связь между тремя метрическими переменными, то возможна проверка предположения о том, что связь между двумя переменными Хи У не зависит от влияния третьей переменной — 2. Для этого можно вычислить коэффициент частной корреляции г :
г
Напомним, что коэффициент гху_г тем больше по абсолютной величине (ближе к г^, чем меньше связь между Л'и /обусловлена влиянием 2. Коэффициент Гху_г близок к 0, если связь между Хи /близка к 0 при любом фиксированном значении 2, то есть связь между Хи /обусловлена влиянием 2
Основной (нулевой) статистической гипотезой является равенство частной корреляции нулю в генеральной совокупности (Н0: гху_1 = 0). Определение р-уровня значимости осуществляется при помощи критерия /-Стьюдента:
(10.2)
Если р< а, Н0 отклоняется и делается содержательный вывод о том, что обнаружена статистически достоверная связь хи у при фиксированных значениях I, то есть связь между х и у не зависит от влияния I. Когда р > а, Н0 не отклоняется, и содержательный вывод ограничен констатацией того, что связь (статистически достоверная) между хи у при фиксированных значениях г не обнаружена.
ПРОВЕРКА ГИПОТЕЗ О РАЗЛИЧИИ КОРРЕЛЯЦИЙ
Задача сравнения корреляций имеет два варианта решения: а) для независимых выборок — когда необходимо сравнить два коэффициента корреляции, полученных на разных выборках между одними и теми же переменными; б) для зависимых выборок — когда необходимо сравнить корреляцию переменных X и У с корреляцией переменных Хи 2, при условии, что все три переменные измерены на одной и той же выборке13.
Сравнение корреляций для независимых выборок
По результатам сравнения корреляций в данном случае можно делать вывод о различии корреляции признаков Хи У в двух сравниваемых совокупностях. Проверяемая Н0 содержит утверждение о равенстве корреляций в генеральной совокупности.
ПРИМЕР 10.2
В одном исследовании сравнивалась связь интеллекта и среднего балла отметок учащихся 6-х классов и учащихся 11-х классов. Для 50 учащихся 6-х классов корреляция составила г, = 0,63 (р < 0,001), а для 60 учащихся 11-х классов — г2 = 0,31 (р < 0,05). Можно ли на основании этих данных утверждать, что в 11-х классах связь отметок с интеллектом слабее, чем в 6-х классах?
(10.3)
Задача статистической проверки подобных предположений решается при помощи ^-преобразования Фишера коэффициентов корреляции и последующего применения 2-критерия. ^-преобразование Фишера — это пересчет коэффициентов корреляции /-по формуле:
2Г = —1п-—- 2 1-г
Для облегчения пересчета можно воспользоваться функцией «ФИШЕР» в программе Ехсе1 либо таблицей, составленной с ее помощью (приложение 7).
Эмпирическое значение ^-критерия для определения ^-уровня значимости различия корреляций вычисляется по формуле:
(Ю.4)
где и — 2-преобразованные значения сравниваемых корреляций, Л^ и Ы2 — соответствующие объемы выборок. Уровень значимости определяется по формуле р < 2Р, где Р — площадь справа от 2Э под кривой нормального распределения.
ПРИМЕР 10.2 (продолжение)
Проверим гипотезу о различии коэффициентов корреляции (а = 0,05).
Ш а г 1. Производим ^-преобразование Фишера в отношении сравниваемых корреляций, воспользовавшись таблицей из приложения 7:
= 0,741; 22 = 0,321. Ш а г 2. Вычислим эмпирическое значение ^-критерия по формуле 10.4:
= 2,136-
0,741-0,321
Ш а г 3. Определим р-уровень значимости. По таблице стандартных нормальных вероятностей (приложение 1) определяем площадь справа от табличного г, ближайшего меньшего 2ГЭ. Справа от I = 2,13: Р= 0,0166. Уровень значимости определяется по формуле р < 2Р. Следовательно, р <0,033.
Ш а г 4. Принимаем статистическое решение и формулируем содержательный вывод. Статистическое решение: отклоняем Н0 (о равенстве корреляций в генеральной совокупности). Содержательный вывод: в 11-х классах связь отметок с интеллектом статистически значимо ниже, чем в 6-х классах (р < 0,033).
Отметим, что одна и та же разность между корреляциями будет иметь более высокую статистическую значимость при больших значениях корреляции и меньшую — при более слабых корреляциях. Так, уменьшение значений корреляций всего на 0,1 в примере 10.2 привело бы кр> 0,05.
Сравнение корреляций для зависимых выборок
В данном случае предполагается сравнение корреляции Хи У с корреляцией Л'и 2 при условии, что все три признака измерены на одной и той же выборке. Проверяемая Н0 содержит утверждение о равенстве соответствующих корреляций.
ПРИМЕР 10.3
Сравнивалась прогностическая эффективность двух шкал вступительного теста в отношении предсказания среднего балла отметок студентов 2 курса. На выборке в 95 студентов корреляция результатов тестирования и среднего балла отметок составила: для первой шкалы: г, = 0,60; для второй шкалы: г2 = 0,46; корреляция результатов двух тестов: гп = 0,70. Можно ли утверждать, что прогностическая ценность первой шкалы достоверно выше, чем второй?
Для статистической проверки подобных гипотез применяется 2Г-критерий, эмпирическое значение которого вычисляется по формуле:
г (10 5)
^(1 -4)2 +(1 -гД)2 -{2гп-гхугх,){\-г1-г1 -г>)
ПРИМЕР 10.3 (продолжение)
Проверим гипотезу о различии коэффициентов корреляции (а = 0,05).
Ш а г 1. Вычислим эмпирическое значение ^-критерия по формуле 10.5: 2, = 2,119.
Ш а г 2. Определим р-уровень значимости. По таблице стандартных нормальных вероятностей (приложение 1) определяем площадь справа от табличного I, ближайшего меньшего Справа от г = 2,11: Р— 0,0174. Уровень значимости определяется по формуле р < 2Р. Следовательно, р < 0,035.
Ш а г 3. Принимаем статистическое решение и формулируем содержательный вывод. Статистическое решение: отклоняем Н0 (о равенстве корреляций в генеральной совокупности). Содержательный вывод: корреляция второй шкалы теста статистически достоверно ниже корреляции первой шкалы со средним баллом отметок студентов 2-го курса (р < 0,05) — прогностическая ценность первой шкалы выше, чем второй шкалы.
Отметим, что для решения такой задачи можно было бы рассматривать выборки как независимые и применять соответствующий метод сравнения корреляций — по формулам 10.3 и 10.4. Но чувствительность (мощность) такой проверки была бы гораздо ниже. В частности, применяя к данным примера 10.3 предыдущий метод, мы получим р = 0,18, что приводит к принятию Н0.
КОРРЕЛЯЦИЯ РАНГОВЫХ ПЕРЕМЕННЫХ
Если к количественным данным неприменим коэффициент корреляции г- Пирсона, то для проверки гипотезы о связи двух переменных после предварительного ранжирования могут быть применены корреляции г-Спирмена или т-Кендалла.
г-Спирмена. Этот коэффициент корреляции вычисляется либо путем применения формулы г-Пирсона к предварительно ранжированным двум переменным, либо, при отсутствии повторяющихся рангов, по упрощенной формуле:
61Х
Г, =1 Ц
Поскольку этот коэффициент — аналог /--Пирсона, то и применение /--Спирмена для проверки гипотез аналогично применению /--Пирсона, изложенному ранее14.
Преимущество г-Спирмена по сравнению с /--Пирсона — в большей чувствительности к связи в случае:
Недостаток г-Спирмена по сравнению с г-Пирсона — в меньшей чувствительности к связи в случае несущественного отклонения распределения обеих переменных от нормального вида.
Частная корреляция и сравнение корреляций применимы и к /--Спирмена.
т-Кендалла. Применяется к предварительно ранжированным данным как альтернатива /--Спирмена. т-Кендалла, как отмечалось в главе 6, имеет более выгодную, вероятностную интерпретацию. Общая формула для вычисления г-Кендалла, вне зависимости от наличия или отсутствия повторяющихся рангов (связей):
Р-0
4[М(М -1) / 2]- Кх ^[N(N-1)/2]- Ку
где Р — число совпадений, С? — число инверсий, Кхи Ку — поправки на связи в рангах (см. главу 6: Проблема связанных (одинаковых) рангов). Если связей в рангах нет, то знаменатель формулы равен Р+ 0 = N(N~ 1 )/2.
Поскольку природа г-Кендалла иная, чем у /--Спирмена и /--Пирсона, то р-уровень определяется по-другому: применяется ^-критерий и единичное нормальное распределение. Эмпирическое значение вычисляется по формуле:
1^-аН (1„.6)
При вычислениях «вручную» /ьуровень определяется по следующему алгоритму:
а) вычисляется эмпирическое значение 1Э;
б) по таблице «Стандартные нормальные вероятности» (приложение 1) определяется теоретическое значение г, ближайшее меньшее к эмпирическому значению гэ;
в) определяется площадь Р под кривой справа от гт;
г) вычисляется р-уровень по формуле р < 2Р.
Проверяемая статистическая гипотеза, порядок принятия статистического решения и формулировка содержательного вывода те же, что и для случая /•-Пирсона или /--Спирмена.
При вычислениях на компьютере статистическая программа (8Р58,81а(лз1:1са) сопровождает вычисленный коэффициент корреляции более точным значением р-уровня.
ПРИМЕР 10.4
Предположим, для каждого из 12 учащихся одного класса известно время решения тестовой арифметической задачи в секундах (X) и средний балл отметок по математике за последнюю четверть (У). При подсчете т-Кендалла были получены следующие результаты: Р= 18; <2= 48; т = —0,455. Проверим гипотезу о связи времени решения тестовой задачи и среднего балла отметок по математике.
Ш а г 1. Вычисляем эмпирическое значение критерия:
|18-48|-1 г 1 1 — = 1,989 .
' 712(12-1)(2'12 + 5)/18
Ш а г 2. По таблице «Стандартные нормальные вероятности» (приложение 1) находим ближайшее меньшее, чем гэ, теоретическое значение г,. и площадь справа от этого гт: 2т = 1,98; площадь справа Р= 0,024.
Ш а г 3. Вычисляем р-уровень по формуле р < 2Р; р < 0,048.
Ш а г 4. Принимаем статистическое решение. Нулевая гипотеза об отсутствии связи в генеральной совокупности отклоняется на уровне а = 0,05.
Ш а г 5. Формулируем содержательный вывод. Обнаружена отрицательная связь между временем решения тестовой арифметической задачи и средним баллом отметок по математике за последнюю четверть (т = —0,455; N= 12; р < 0,048). Величина корреляции показывает, что при сравнении испытуемых друг с другом более высокий средний балл будет сочетаться с меньшим временем решения задач чаще, чем в 70% случаях, так как вероятность инверсий Р(д) = (1 — т)/2 = = (1+0,455)/2 = 0,728.
(Отметим, что при вычислении т-Кендалла по этим данным на компьютере были получены следующие результаты: т = —0,455; р = 0,040.)
Сравнение г-Спирмена их-Кендалла. Интерпретация /--Спирмена аналогична интерпретации /--Пирсона. Квадрат и того, и другого коэффициента корреляции (коэффициент детерминации) показывает долю дисперсии одной переменной, которая может быть объяснена влиянием другой переменной. т-Кендалла имеет другую интерпретацию: это разность вероятностей совпадений и инверсий в рангах. Кроме того, по величине т-Кендалла можно судить о вероятности совпадений Р(р) = (1 + т)/2 или инверсий Р(д) = (1 — т)/2.
Для одних и тех же данных величина г-Спирмена всегда больше, чем х-Кендалла, исключая крайние значения 0 и 1. Это отражает тот факт, что т-Кендалла зависит от силы связи линейно, а /--Спирмена — не линейно. В то же время для одних и тех же данныхр-уровень х-Кендалла и г-Спирмена примерно одинаков, а иногда т-Кендалла имеет преимущество в уровне значимости.
Замечания к применению. Если связь (статистически достоверная) не обнаружена, но есть основания полагать, что связь на самом деле есть, то следует
сначала перейти от г-Спирмена к т-Кендалла (или наоборот), а затем проверить другие возможные причины недостоверности связи.
vi |
у2 |
уЗ |
у4 |
у5 |
|
VI |
1 |
0,52 |
-0,11 |
-0,29 |
-0,38 |
у2 |
0,52 |
1 |
0,28 |
0,32 |
-0,34 |
уЗ |
-0,11 |
0,28 |
1 |
0,48 |
0,42 |
у4 |
-0,29 |
0,32 |
0,48 |
1 |
0,38 |
у5 |
-0,38 |
-0,34 |
0,42 |
0,38 |
1 |
№ |
vi |
у2 |
уЗ |
у4 |
у5 |
1 |
10 |
23 |
4 |
111 |
56 |
2 |
13 |
26 |
6 |
98 |
52 |
3 |
8 |
12 |
2 |
105 |
58 |
4 |
9 |
25 |
7 |
100 |
49 |
5 |
11 |
16 |
3 |
101 |
65 |
30 |
7 |
19 |
6 |
94 |
41 |
Нетрудно заметить, что корреляционная матрица является квадратной, симметричной относительно главной диагонали (так как Гц = /},), с единицами на главной диагонали (так как гИ = г^ =1).
Если связь статистически достоверна, то прежде, чем делать содержательный вывод, следует исключить возможность наличия «ложной» корреляции, как следствия влияния третьей переменной (см. Замечания к применению метрических коэффициентов корреляции).
АНАЛИЗ КОРРЕЛЯЦИОННЫХ МАТРИЦ
Корреляционная матрица. Часто корреляционный анализ включает в себя изучение связей не двух, а множества переменных, измеренных в количественной шкале на одной выборке. В этом случае вычисляются корреляции для каждой пары из этого множества переменных. Вычисления обычно проводятся на компьютере, а результатом является корреляционная матрица.
Корреляционная матрица (СоггеШ'юп Ма1пх) — это результат вычисления корреляций одного типа для каждой пары из множества Р переменных, измеренных в количественной шкале на одной выборке.
ПРИМЕР
Предположим, изучаются связи между 5 переменными (у1, у2, ..., у5; Р= 5), измеренными на выборке численностью N=: 30 человек. Ниже приведена таблица исходных данных и корреляционная матрица. Исходные данные: Корреляционная матрица:
Корреляционная матрица является квадратной: число строк и столбцов равно числу переменных. Она симметрична относительно главной диагонали, так как корреляция хс у равна корреляции у с х. На ее главной диагонали располагаются единицы, так как корреляция признака с самим собой равна единице. Следовательно, анализу подлежат не все элементы корреляционной матрицы, а те, которые находятся выше или ниже главной диагонали.
Количество коэффициентов корреляции, подлежащих анализу при изучении связей ^признаков определяется формулой: Р(Р-1)/2. В приведенном выше примере количество таких коэффициентов корреляции 5(5 — 1)/2 = 10.
Основная задача анализа корреляционной матрицы — выявление структуры взаимосвязей множества признаков. При этом возможен визуальный анализ корреляционных плеяд — графического изображения структуры статистически значимых связей, если таких связей не очень много (до 10—15). Другой способ — применение многомерных методов: множественного регрессионного, факторного или кластерного анализа (см. раздел «Многомерные методы...»). Применяя факторный или кластерный анализ, можно выделить группировки переменных, которые теснее связаны друг с другом, чем с другими переменными. Весьма эффективно и сочетание этих методов, например, если признаков много и они не однородны.
Сравнение корреляций — дополнительная задача анализа корреляционной матрицы, имеющая два варианта. Если необходимо сравнение корреляций в одной из строк корреляционной матрицы (для одной из переменных), применяется метод сравнения для зависимых выборок (с. 148—149). При сравнении одноименных корреляций, вычисленных для разных выборок, применяется метод сравнения для независимых выборок (с. 147—148).
Методы сравнения корреляций в диагоналях корреляционной матрицы (для оценки стационарности случайного процесса) и сравнения нескольких корреляционных матриц, полученных для разных выборок (на предмет их однородности), являются трудоемкими и выходят за рамки данной книги. Познакомиться с этими методами можно по книге Г. В. Суходольского15.
Проблема статистической значимости корреляций. Проблема заключается в том, что процедура статистической проверки гипотезы предполагает однократное испытание, проведенное на одной выборке. Если один и тот же метод применяется многократно, пусть даже и в отношении различных переменных, то увеличивается вероятность получить результат чисто случайно. В общем случае, если мы повторяем один и тот же метод проверки гипотезы к раз в отношении разных переменных или выборок, то при установленной величине а мы гарантированно получим подтверждение гипотезы в ахк числе случаев.
Предположим, анализируется корреляционная матрица для 15 переменных, то есть вычислено 15(15—1)/2 = 105 коэффициентов корреляции. Для проверки гипотез установлен уровень а = 0,05. Проверяя гипотезу 105 раз, мы пять раз (!) получим ее подтверждение независимо оттого, существует ли связь на самом деле. Зная это и получив, скажем, 15 «статистически достоверных» коэффициентов корреляции, сможем ли мы сказать, какие из них получены случайно, а какие — отражают реальную связь?
Строго говоря, для принятия статистического решения необходимо уменьшить уровень а во столько раз, сколько гипотез проверяется. Но вряд ли это целесообразно, так как непредсказуемым образом увеличивается вероятность проигнорировать реально существующую связь (допустить ошибку II рода).
Одна только корреляционная матрица не является достаточным основанием для статистических выводов относительно входящих в нее отдельных коэффициентов корреляций!
Можно указать лишь один действительно убедительный способ решения этой проблемы: разделить выборку случайным образом на две части и принимать во внимание только те корреляции, которые статистически значимы в обеих частях выборки. Альтернативой может являться использование многомерных методов (факторного, кластерного или множественного регрессионного анализа) — для выделения и последующей интерпретации групп статистически значимо связанных переменных.
Проблема пропущенных значений. Если в данных есть пропущенные значения, то возможны два варианта расчета корреляционной матрицы: а) построчное удаление значений (Ехс1иёе сазез НзМве); б) попарное удаление значений (Ехс1и<1е савев ра1т8е). При построчном удалении наблюдений с пропусками удаляется вся строка для объекта (испытуемого), который имеет хотя бы одно пропущенное значение по одной из переменных. Этот способ приводит к «правильной» корреляционной матрице в том смысле, что все коэффициенты вычислены по одному и тому же множеству объектов. Однако если пропущенные значения распределены случайным образом в переменных, то данный метод может привести к тому, что в рассматриваемом множестве данных не останется ни одного объекта (в каждой строке встретится, по крайней мере, одно пропущенное значение). Чтобы избежать подобной ситуации, используют другой способ, называемый попарным удалением. В этом способе учитываются только пропуски в каждой выбранной паре столбцов-переменных и игнорируются пропуски в других переменных. Корреляция для пары переменных вычисляется по тем объектам, где нет пропусков. Во многих ситуациях, особенно когда число пропусков относительно мало, скажем 10%, и пропуски распределены достаточно хаотично, этот метод не приводит к серьезным ошибкам. Однако иногда это не так. Например, в систематическом смещении (сдвиге) оценки может «скрываться» систематическое расположение пропусков, являющееся причиной различия коэффициентов корреляции, построенных по разным подмножествам (например — для разных подгрупп объектов). Другая проблема, связанная с корреляционной матрицей, вычисленной при попарном удалении пропусков, возникает при использовании этой матрицы в других видах анализа (например, в множественном регрессионном или факторном анализе). В них предполагается, что используется «правильная» корреляционная матрица с определенным уровнем состоятельности и «соответствия» различных коэффициентов. Использование матрицы с «плохими» (смещенными) оценками при
водит к тому, что программа либо не в состоянии анализировать такую матрицу, либо результаты будут ошибочными. Поэтому, если применяется попарный метод исключения пропущенных данных, необходимо проверить, имеются или нет систематические закономерности в распределении пропусков.
Если попарное исключение пропущенных данных не приводит к какому- либо систематическому сдвигу средних значений и дисперсий (стандартных отклонений), то эти статистики будут похожи на аналогичные показатели, вычисленные при построчном способе удаления пропусков. Если наблюдается значительное различие, то есть основание предполагать наличие сдвига в оценках. Например, если среднее (или стандартное отклонение) значений переменной А, которое использовалось при вычислении ее корреляции с переменной В, намного меньше среднего (или стандартного отклонения) тех же значений переменной А, которые использовались при вычислении ее корреляции с переменной С, то имеются все основания ожидать, что эти две корреляции {А—В и /4-0 основаны на разных подмножествах данных. В корреляциях будет сдвиг, вызванный неслучайным расположением пропусков в значениях переменных.
Анализ корреляционных плеяд. После решения проблемы статистической значимости элементов корреляционной матрицы статистически значимые корреляции можно представить графически в виде корреляционной плеяды или плеяд. Корреляционная плеяда — это фигура, состоящая из вершин и соединяющих их линий. Вершины соответствуют признакам и обозначаются обычно цифрами — номерами переменных. Линии соответствуют статистически достоверным связям и графически выражают знак, а иногда — и р-уровень значимости связи.
Корреляционная плеяда может отражать все статистически значимые связи корреляционной матрицы (иногда называется корреляционным графом) или только их содержательно выделенную часть (например, соответствующую одному фактору по результатам факторного анализа).
Корреляционный граф и его родственные связи, достоверность которых была установлена в судебном порядке
ПРИМЕР ПОСТРОЕНИЯ КОРРЕЛЯЦИОННОЙ ПЛЕЯДЫ
Корреляционная матрица:
VI |
м2 |
УЗ |
у4 |
у5 |
|
VI |
1 |
г 0,5-2 |
-0,11 |
-0.29 |
-0,38 |
У2 |
0,52 |
1 |
0,28 |
0,32 |
-0,34 |
УЗ |
-0,11 |
0,28 |
1 |
0,48 |
0,42 |
у4 |
-0,29 |
0,32 |
0,48 |
1 |
0,38 |
у5 |
-0,38 |
-0,34 |
0,42 |
0,38 |
1 |
2 12 2 3
Корреляционная плеяда:
Построение корреляционной плеяды начинают с выделения в корреляционной матрице статистически значимых корреляций (иногда — разным цветом в зависимости от р-уровня значимости). Затем для строк (столбцов) матрицы, содержащих статистически значимые корреляции, подсчитывается их количество. Построение плеяды начинают с переменной, имеющей наибольшее число значимых связей, постепенно добавляя в рисунок другие переменные — по мере убывания числа связей и связывая их линиями, соответствующими связям между ними.
ОБРАБОТКА НА КОМПЬЮТЕРЕ
Графики двумерного рассеивания. Выбираем СгарЬз... > 8саМег...-8нпр1е. Нажимаем ОеПпе. В появляющемся окне назначаем осям переменные: выделяем слева одну переменную, нажимаем > напротив «X Ах1§» (Ось X), выделяем другую переменную, нажимаем > напротив «У Ах1§». Нажимаем ОК. Получаем график рассеивания назначенных переменных.
Вычисление симметричной корреляционной матрицы. (По умолчанию 5Р88 вычисляет полную корреляционную матрицу.)
Выбираем Апа1уге > СоггеЫе > В|уапа*е... В открывшемся окне диалога выделяем интересующие переменные в левой части и переносим их в правую часть при помощи кнопки > (переменных должно быть как минимум две).
По умолчанию стоит флажок Реагвоп (корреляция /--Пирсона). Если интересует корреляция г-Спирмена или х-Кендалла, необходимо поставить соответствующие флажки внизу.
Если в данных есть пропуски, то по умолчанию программа учтет их путем попарного удаления (ехс1ис!е сазез ра1пу|$е). Если необходимо учесть их путем построчного удаления (объектов с пропусками), то нажимаем Ор*10п§... > (ЕхсМе са§е§ Н§Ы§е) > Сопйпие...
Нажимаем ОК. В появившейся таблице строки и столбцы соответствуют выделенным ранее переменным. В ячейке на пересечении строки и столбца, соответствующих интересующим нас переменным, видим три числа: верхнее соответствует коэффициенту корреляции, нижнее — численности выборки ДО, среднее — /^-уровню значимости для ненаправленных альтернатив (Зщ. (2-ЫМ)).
Вычисление несимметричной корреляционной матрицы. Если есть необходимость вычислить корреляции не всех, а только двух групп переменных, то необходимо создание командного файла (ЗуЩах). Например, есть 5 переменных с именами: VI, у2, уЗ, у4, у5. Задача — вычислить корреляции у1 с остальными переменными из этого набора, обрабатывая пропуски путем попарного удаления.
/пйззз-пд Из^мхзе.
попраг согг VI м 11:11 V2 V3 V4 V5.
попраг согг VI и 11:11 V2 V3 V4 V5 /рг1п1: кепйа11.
попраг согг VI иК:11 V2 V3 V4 V5 /пиззз-пд ИзЬм1зе /рг1П(: ЬоЫг.
Заметьте, что вся команда обязательно должна заканчиваться точкой.
Для выполнения команды нажимаем Кип > АН. Программа выдаст результат — таблицу корреляций переменных. Строки будут соответствовать именам переменных, указанных в команде до слова а столбцы — именам переменных, указанных после слова М1Ы1.
Вычисление частной корреляции. Выбираем Апа!уге > СоггеЫе > Раг11а1... В открывшемся окне диалога переносим интересующие переменные из левой части в правую верхнюю (УапаЫез:) при помощи верхней кнопки > (переменных должно быть как минимум две). Затем при помощи нижней кнопки > из правой части в левую нижнюю часть (Соп1го1Пп§ Гог:) переносим переменную, значения которой хотим фиксировать. Нажимаем ОК. Получаем таблицу, аналогичную таблице парных корреляций, но верхнее число в каждой ячейке — значение частной корреляции соответствующих двух переменных при фиксированном значении указанной третьей переменной. Нижнее число — /ьуровень значимости, а посередине — число степеней свободы.
Глава 11
ПАРАМЕТРИЧЕСКИЕ МЕТОДЫ СРАВНЕНИЯ ДВУХ ВЫБОРОК
Сравнение двух выборок по признаку, измеренному в метрической шкале, обычно предполагает сравнение средних значений с использованием параметрического критерия 1-Стьюдента. Следует различать три ситуации по соотношению выборок между собой: случай независимых и зависимых выборок (измерений признака) и дополнительно — случай сравнения одного среднего значения с заданной величиной (критерий /-Стьюдента для одной выборки).
К параметрическим методам относится и сравнение дисперсий двух выборок по критерию Р-Фишера. Иногда этот метод приводит к ценным содержательным выводам, а в случае сравнения средних для независимых выборок сравнение дисперсий является обязательной процедурой.
При сравнении средних или дисперсии двух выборок проверяется ненаправленная статистическая гипотеза о равенстве средних (дисперсий) в генеральной совокупности. Соответственно, при ее отклонении допустимо принятие двусторонней альтернативы о конкретном направлении различий в соответствии с соотношением выборочных средних (дисперсий). Для принятия статистического решения в таких случаях применяются двусторонние критерии и, соответственно, критические значения для проверки ненаправленных альтернатив.
СРАВНЕНИЕ ДИСПЕРСИЙ
Метод позволяет проверить гипотезу о том, что дисперсии двух генеральных совокупностей, из которых извлечены сравниваемые выборки, отличаются друг от друга. Проверяемая статистическая гипотеза Н0: о] = При ее отклонении принимается альтернативная гипотеза о том, что одна дисперсия больше другой.
Исходные предположения: две выборки извлекаются случайно из разных генеральных совокупностей с нормальным распределением изучаемого признака.
Структура исходных данных, изучаемый признак измерен у объектов (испытуемых), каждый из которых принадлежит к одной из двух сравниваемых выборок.
ПРИМЕР
При сравнении мужчин (1) и женщин (2) по уровню тревожности:
№ |
Х(ПО!\) |
У (тревожность) |
1 |
1 |
10 |
2 |
2 |
9 |
3 |
2 |
3 |
4 |
1 |
8 |
N |
1 |
6 |
Ограничения: распределения признака и в той, и в другой выборке существенно не отличаются от нормального.
Альтернатива методу, критерий Ливена (Ьеуепе'зТез!), применение которого не требует проверки предположения о нормальности (используется в программе 8Р88).
Формула для эмпирического значения критерия /^-Фишера:
Г, =4' С™ = ^ -1; С.» = -1 , (11.1)
где о? — большая дисперсия, а а1 — меньшая дисперсия. Так как заранее не известно, какая дисперсия больше, то для определения /?-уровня применяется Таблица критических значений для ненаправленных альтернатив. Если Р., > Ркр для соответствующего числа степеней свободы, то 0,05 и статистическую гипотезу о равенстве дисперсий можно отклонить (для а = 0,05).
Метод может применяться для проверки предположения о равенстве (гомогенности) дисперсий перед проверкой достоверности различия средних по критерию /-Стьюдента для независимых выборок разной численности. Однако содержательная интерпретация статистически достоверного различия дисперсий может иметь и самостоятельную ценность.
ПРИМЕР 11.1'
Детям давались обычные арифметические задания, после чего одной случайно выбранной половине учащихся сообщали, что они не выдержали испытания, а остальным — обратное. Затем у каждого ребенка спрашивали, сколько секунд ему потребовалось бы для решения аналогичной задачи. Экспериментатор вычислял разность между называемым ребенком временем и результатом выполненного задания (в сек.). Ожидалось, что сообщение о неудаче вызовет некоторую неадекватность самооценки ребенка. Проверяемая гипотеза (на уровне а = 0,05) состояла в
' ГлассДж., Стэнли Дж. Статистические методы в педагогике и психологии. М., 1976. С. 277.
том, что дисперсия совокупности самооценок не зависит от сообщений об удаче
или неудаче (Н0: а?= с|)-
Были получены следующие данные:
Группа 1: сообщение о неудаче |
Группа 2: сообщение об успехе |
#,= 12 а] = 90,45 |
12 02 = 8,16 |
Ш а г 1. Вычислим эмпирическое значение критерия и числа степеней свободы по формулам 11.1:
^=•^ = 11,08, 0[чкл = 11; с1/т.^\\.
Шаг 2. По таблице критических значений критерия /'-Фишера для ненаправленных альтернатив (приложение 8) находим критическое значение для с!/тсл =11; #знам= 11 • Однако критическое значение есть только дня с!/,1Ж, = 10 и ^//,'!ИСЛ = 12. Большее число степеней свободы брать нельзя, поэтому берем критическое значение для #шсл = Ю: дляр = 0,05 Гкр = 3,526; для/? = 0,01 Гкр = 5,418.
Ш а г 3. Принятие статистического решения и содержательный Вывод. Поскольку эмпирическое значение превышает критическое значение для р = 0,01 (и тем более — для р = 0,05), то в данном случае р < 0,01 и принимается альтернативная гипотеза: дисперсия в группе 1 превышает дисперсию в группе 2 (р < 0,01). Следовательно, после сообщения о неудаче неадекватность самооценки выше, чем после сообщения об удаче.
КРИТЕРИЙ Г-СТЬЮДЕНТА ДЛЯ ОДНОЙ ВЫБОРКИ
Метод позволяет проверить гипотезу о том, что среднее значение изучаемого признака Мх отличается от некоторого известного значения А. Проверяемая статистическая гипотеза: Н0: Мх—А. При ее отклонении принимается альтернативная гипотеза о том, что Мх меньше (больше) А.
Исходное предположение .распределение признака в выборке приблизительно соответствует нормальному виду.
Структура исходных данных, значения изучаемого признака определены для каждого члена выборки, которая репрезентативна изучаемой генеральной совокупности.
Альтернатива методу: нет.
Формула для эмпирического значения критерия /-Стьюдента:
ПРИМЕР 11.2
Предположим, исследовалось влияние условий воспитания в детском доме на интеллектуальное развитие детей. При использовании стандартного теста интеллекта для случайной выборки воспитанников детдома были получены следующие результаты: М= 106; о = 15; 36. Исследователя интересовало, превышает ли интеллект воспитанников детдома нормативный показатель А = 100. Для принятия статистического решения был определен уровень а = 0,05.
Ш а г 1. Вычисляем по формуле 11.2 эмпирическое значение критерия и число степеней свободы: (э= 2,4; 35.
Ш а г 2. Определяем по таблице критических значений критерия Г-Стьюдента (приложение 2) р-уровень значимости. Для (1/= 35 эмпирическое значение находится между критическими для р = 0,05 ир= 0,01. Следовательно, р < 0,05.
Ш а г 3. Принимаем статистическое решение и формулируем вывод. Статистическая гипотеза о равенстве среднего значения заданной величине отклоняется. Интеллект воспитанников детдома (М= 106; а= 15; 36) статистически достоверно превышает нормативный показатель интеллекта А = 100 (р < 0,05).
КРИТЕРИЙ /-СТЫОДЕНТА ДЛЯ НЕЗАВИСИМЫХ ВЫБОРОК
Метод позволяет проверить гипотезу о том, что средние значения двух генеральных совокупностей, из которых извлечены сравниваемые независимые выборки, отличаются друг от друга. Допущение независимости предполагает, что представители двух выборок не составляют пары коррелирующих значений признака. Это предположение нарушилось бы, если, например, 1-я выборка состояла из мужей, а 2-я — из их жен, и два ряда значений измеренного признака могли бы коррелировать.
Проверяемая статистическая гипотеза Н0: Л/, = М2. При ее отклонении принимается альтернативная гипотеза о том, что Мх больше (меньше) М2.
Исходные предположения для статистической проверки:
Структура исходных данных: изучаемый признак измерен у объектов (испытуемых), каждый из которых принадлежит к одной из двух сравниваемых независимых выборок.
Ограничения: распределения признака и в той, и в другой выборке существенно не отличаются от нормального; в случае разной численности сравниваемых выборок их дисперсии статистически достоверно не различаются (проверяется по критерию /'-Фишера — при вычислениях «вручную», по критерию Ливена — при вычислениях на компьютере).
Альтернатива методу, непараметрический критерий (У-Манна-Уитни — если распределение признака хотя бы в одной выборке существенно отличается от нормального и (или) дисперсии различаются статистически достоверно. Формулы для эмпирического значения критерия ^-Стыодента:
(11.3)
2 1 ТУ, ЛГ,
' 2
или
Г,- , (11.4)
V 1 ' У
ё/ = М{+М2-2.
Формула (11.3) применяется для приближенных расчетов, для близких по численности выборок, а формула (11.4) — для точных расчетов, когда выборки заметно различаются по численности.
ПРИМЕР 11.3
Предположим, изучалось различие в интеллекте студентов 1-го и 5-го курсов. Для этого случайным образом были отобраны 30 студентов 1 курса и 28 студентов 5 \кур- са, у которых интеллект определялся по одной и той же методике. Были получены следующие результаты:
Группа 1:1-й курс |
Группа 2: 5-й курс |
#, = 30 Мх = 103 а, = 10 |
#2 = 28 М2= Ю9 а\= 12 |
Гипотеза о различии интеллекта проверялась на уровне а = 0,05.
Шаг 1. Вычисляем эмпирическое значение критерия /-Стьюдента по формуле 11.3: /э = 2,06 (по формуле 11.4:1Э = 2,17); с!/= 56.
Ш а г 2. Определяем по таблице критических значений критерия /-Стьюдента (приложение 2) /ьуровень значимости. Для #=56 эмпирическое значение находится между критическими для р = 0,05 ир = 0,01. Следовательно, р < 0,05.
Ш а г 3. Принимаем статистическое решение и формулируем вывод. Статистическая гипотеза о равенстве средних значений отклоняется. Вывод: интеллект студентов 5 курса статистически достоверно выше, чем у студентов 1 курса (р < 0,05).
КРИТЕРИЙ 7-СТЫОДЕНТА ДЛЯ ЗАВИСИМЫХ ВЫБОРОК
Метод позволяет проверить гипотезу о том, что средние значения двух генеральных совокупностей, из которых извлечены сравниваемые зависимые выборки, отличаются друг от друга. Допущение зависимости чаще всего значит, что признак измерен на одной и той же выборке дважды, например, до воздействия и после него. В общем же случае каждому представителю одной выборки поставлен в соответствие представитель из другой выборки (они попарно объединены) так, что два ряда данных положительно коррелируют друг с другом. Более слабые виды зависимости выборок: выборка 1 —■ мужья, выборка 2 — их жены; выборка 1 — годовалые дети, выборка 2 составлена из близнецов детей выборки 1, и т. д.
Проверяемая статистическая гипотеза, как и в предыдущем случае, Н0: Мх = Мг. При ее отклонении принимается альтернативная гипотеза о том, что М{ больше (меньше) Мг.
Исходные предположения для статистической проверки:
Структура исходных данных: имеется по два значения изучаемого признака для каждого объекта (для каждой пары).
ПРИМЕР
При сравнении значений признака Хдо воздействия (ЛГ,) и после воздействия (Х2)
на выборку численностью №
№ |
Хх |
|
1 |
8 |
10 |
2 |
8 |
9 |
3 |
3 |
4 |
4 |
5 |
5 |
N |
6 |
7 |
Ограничения: распределения признака и в той, и в другой выборке существенно не отличаются от нормального; данные двух измерений, соответствующих той и другой выборке, положительно коррелируют.
Альтернативы-, критерий Г-Вилкоксона, если распределение хотя бы для одной выборки существенно отличается от нормального; критерий /-Стью- дента для независимых выборок — если данные для двух выборок не коррелируют положительно.
Формула для эмпирического значения критерия /"-Стыодента отражает тот факт, что единицей анализа различий является разность {сдвиг) значений признака для каждой пары наблюдений. Соответственно, для каждой из Л^пар значений признака сначала вычисляется разность = хи - х2г
где Мй — средняя разность значений; — стандартное отклонение разностей.
ПРИМЕР 11.4
Предположим, в ходе проверки эффективности тренинга каждому из 8 членов группы задавался вопрос «Насколько часто твое мнение совпадаете мнением группы?» — дважды, до и после тренинга. Для ответов использовалась 10-балльная шкала: 1 — никогда,..., 5 — в половине случаев,..., 10 — всегда. Проверялась гипотеза о том, что в результате тренинга самооценка конформизма участников возрастет (а = 0,05). Составим таблицу для промежуточных вычислений:
№ |
с!1 = Х]-Х2 |
4-М/ |
(4-^)2 |
||
1 |
3 |
4 |
-1 |
-0,25 |
0,0625 |
2 |
6 |
6 |
0 |
0,75 |
0,5625 |
3 |
5 |
6 |
-1 |
-0,25 |
0,0625 |
4 |
2 |
4 |
-2 |
-1,25 |
1,5625 |
5 |
7 |
6 |
1 |
1,75 |
3,0625 |
6 |
3 |
4 |
-1 |
-0,25 |
0,0625 |
7 |
4 |
5 |
-1 |
-0,25 |
0,0625 |
8 |
5 |
6 |
-1 |
-0,25 |
0,0625 |
Сумма: |
35 |
41 |
-6 |
0 |
5,5 |
Ш а г 1. Вычисляем эмпирическое значение критерия по формуле 11.5: средняя разность Л/^ = —0,75; стандартное отклонение ст^ =0,886; /э = 2,39; с1/= 7.
Ш а г 2. Определяем по таблице критических значений критерия Г-Стьюдента (приложение 2)р-уровень значимости. Для #= 7 эмпирическое значение находится между критическими для р = 0,05 и р = 0,01. Следовательно, р < 0,05.
Ш а г 3. Принимаем статистическое решение и формулируем вывод. Статистическая гипотеза о равенстве средних значений отклоняется. Вывод: показатель самооценки конформизма участников после тренинга увеличился статистически достоверно (р < 0,05).
Замечание. В отношении зависимых выборок вполне допустимо применение критерия /-Стьюдента для независимых выборок (но не наоборот!). Это целесообразно, если корреляция между двумя измерениями отрицательная. Если же корреляция положительная, то такая замена приведет к недооценке достоверности различий.
В примере 11.4 корреляция между ^ и Хгг= 0,9. Если в отношении данных применить формулу 11.3, то эмпирическое значение критерия составит /э= 1,085. Для (#=14 это значение значительно меньше критического дляр = 0,1. Следовательно, статистическая гипотеза о равенстве средних значений не отклоняется.
ОБРАБОТКА НА КОМПЬЮТЕРЕ
Критерий /-Стьюдента для одной выборки.
Б) В открывшемся окне диалога выделяем и переносим интересующие переменные из левого окна в правое окно при помощи кнопки > (в данном случае — переменные уаг7 и Vа^8). Устанавливаем величину, с которой собираемся сравнивать средние значения: Те$1 Уа1ие — вводим значение (в данном примере 10). Нажимаем ОК.
0пе-3атр1е ЗЬаЫаьхсв
N |
Меап |
Оеу1а(;1оп |
5(;сЗ. Еггог Меап |
|
УАК7 |
46 |
10.9130 |
2.88156 |
.42486 |
УАК8 |
46 |
9.6957 |
2.50217 |
.36893 |
0пе-3атр1е Тевь
ТезС Vа1ие = 10 |
||||
Ъ |
51д. (2-ЬаИесЗ) |
Меап В1ЕЕегепсе |
||
УАК7 |
2.149 |
45 |
.037 |
.9130 |
УАК8 |
-.825 |
45 |
.414 |
-.3043 |
В первой таблице содержатся первичные статистики, в частности, средние значения (Меап$), стандартные отклонения (8гс1. ОеУ1а1юп). Во второй — результаты проверки гипотез: значения /-Стьюдента (I), числа степеней свободы (ф, уровень значимости (5щ.), разность среднего значения и заданной величины (Меап ЭШегепсе).
Критерий Г-Стьюдента и сравнение двух дисперсий для независимых выборок.
Б) В открывшемся окне диалога выделяем и переносим при помощи кнопки > из левого окна интересующие переменные в правое верхнее окно (Те$1 УапаЫе($)) (в данном случае — переменную уаг1); группирующую переменную, которая делит выборку на подгруппы (Сгоириц; Уап'аЫе) (в данном случае — переменную чаг2). Нажимаем кнопку Бейпе Сгоирх... и задаем номера градаций группирующей переменной, которые мы хотим сравнить (в данном случае 0 и 1). Нажимаем СопНпие. Нажимаем ОК.
Сгоир ЗЪаЫв^св
УАК2 |
N |
Меап |
8Ъс1. БеугаЬгоп |
ЗЪй. Еггог Меап |
|
УАК1 |
.00 |
11 |
9.1818 |
2.99393 |
.90270 |
1.00 |
9 |
13 .3333 |
4.33013 |
1.44338 |
1п<3ереп<3еп1: 8атр1ев ТевЪ
^еVепе'з ТезЬ Ёог ЕчиаНЬу оЕ Уаг1апсез |
Ь-ЬезЬ Еог ЕдиаНЪу оЕ Меапз |
||||
Р |
31д. |
сК |
31д. (2-ЬаИесЗ) |
||
УАК1 Едиа1 Vа^^апсез аззишей Едиа1 Vа^^апсе8 поС аззитей |
1.344 |
.262 |
-2 . 531 -2 .439 |
18 13 .794 |
.021 .029 |
В первой таблице содержатся первичные статистики: каждой выборке (градации 0 п 1 переменной Vа^2) соответствует своя строка. Во второй таблице — результаты проверки гипотез: проверка равенства дисперсий (Ьеуепе'8 Тез*...) — значение критерия (Р) и уровень значимости (81§.); проверка различий средних (Ые8{...) — значение критерия (/), число степеней свободы ((I/), уровень значимости (8|§.). Результаты проверки по критерию /-Стьюдента принимаются во внимание, если дисперсии по критерию Ливена статистически значимо не различаются (р > 0,05).
Примечание. Программа предлагает вариант проверки по критерию /-Стьюдента с поправкой на неоднородность дисперсии (Е^иа1 уапапсек по( аззитеё). Правомерность такой поправки не очевидна. Поэтому, в случае получения достоверного различия дисперсий по критерию Ливена, рекомендуем воспользоваться непараметрической проверкой различий для независимых выборок (по критерию {/-Манна-Уитни).
Критерий Г-Стьюдента для зависимых выборок.
Б) В открывшемся окне диалога выделяем две переменные (соответствующие двум зависимым выборкам — измерениям одного и того же признака) и переносим пару при помощи кнопки > из левого окна в правое окно (Ра1гей УапаЫез). Пар может быть несколько (в данном случае — это пара переменных уаг2 и уагЗ). Нажимаем ОК.
Ра1гес1 8ашр1ев БЬаЫвЫса
Меап |
N |
ЗЬЙ. ^еV^а(;^оп |
ЗЪЙ. Еггог Меап |
||
Ра1г 1 УАК2 |
11.9000 |
20 |
2 .46875 |
. 55203 |
|
УАКЗ |
9.6000 |
20 |
3.15228 |
.70487 |
|
Ра1ге<3 8ашр1ев Согге1а1:1оп8 |
|||||
N |
Согге1аЫоп |
31д. |
|||
Рагг 1 УАК2 |
& УАКЗ |
20 |
.482 |
.032 |
Ра1гес1 8атр1ев Тевъ
Рал.ге<3 Бд.:ЕЕегепсез |
||||||
Меап |
зъа. ^еV^а{;^оп |
ЗЪа. Еггог Меап |
Ь |
аг |
31д. (2-ЬаИей) |
|
РЭ1Г 1 УАК2 - УАКЗ |
2.30 |
2.922 |
.65333 |
3 .520 |
19 |
.002 |
Первая таблица содержит первичные статистики: каждой выборке соответствует своя строка. Во второй таблице — корреляция Пирсона для пары переменных, соответствующих двум зависимым выборкам. Третья таблица содержит результаты проверки гипотезы по критерию /-Стыодента: среднюю разность (Меап), стандартное отклонение разности (81(1. Бе\1а110п), значение критерия (г), число степеней свободы (<//), уровень значимости (§1§.).
Глава 12
НЕПАРАМЕТРИЧЕСКИЕ МЕТОДЫ СРАВНЕНИЯ ВЫБОРОК
ОБЩИЕ ЗАМЕЧАНИЯ
К методам сравнения выборок, в соответствии с принятой классификацией16, мы относим способы проверки статистических гипотез о различии выборок по уровню выраженности признака, измеренного в количественной шкале. Непараметрические методы сравнения выборок, рассматриваемые в этой главе, являются аналогами параметрических методов сравнения средних значений. И почти каждый параметрический метод сравнения средних может быть при необходимости заменен своим непараметрическим аналогом либо сочетанием непараметрических методов2.
Непараметрические методы заметно проще в вычислительном отношении, чем их параметрические аналоги. До недавнего прошлого простота вычислений имела существенное значение при обработке данных «вручную». Но, во- первых, данные очень часто включают одинаковые значения, усложняющие расчеты, во-вторых, компьютерная обработка снимает проблему сложности вычислений. Поэтому при выборе между параметрическими и непараметрическими методами следует исходить из свойств самих данных.
Непараметрические аналоги параметрических методов сравнения выборок применяются в случаях, когда не выполняются основные предположения, лежащие в основе параметрических методов сравнения средних значений.
При решении вопроса о выборе параметрического или непараметрического метода сравнения необходимо иметь в виду, что параметрические методы обладают заведомо большей чувствительностью, чем их непараметрические аналоги. Поэтому исходной ситуацией является выбор параметрического метода. И решение о применении непараметрического метода становится оправданным, если не выполняются исходные предположения, лежащие в основе применения параметрического метода.
Условия, когда применение непараметрических методов является оправданным:
П не выполняется требование гомогенности дисперсии при сравнении средних значений для независимых выборок.
На практике преимущество непараметрических методов наиболее заметно, когда в данных имеются выбросы (экстремально большие или малые значения).
Если размер выборки очень велик (больше 100), то непараметрические методы сравнения использовать нецелесообразно, даже если не выполняются некоторые исходные предположения применения параметрических методов. С другой стороны, если объемы сравниваемых выборок очень малы (10 и меньше), то результаты применения непараметрических методов можно рассматривать лишь как предварительные.
Структура исходных данных и интерпретация результатов применения для параметрических методов и их непараметрических аналогов являются идентичными.
При сравнении выборок с использованием непараметрических критериев, как и в случае параметрических критериев, обычно проверяются ненаправленные статистические гипотезы. Основная (нулевая) статистическая гипотеза при этом содержит утверждение об идентичности генеральных совокупностей (из которых извлечены выборки) по уровню выраженности изучаемого признака. Соответственно, при ее отклонении допустимо принятие двусторонней альтернативы о конкретном направлении различий в соответствии с выборочными данными. Для принятия статистического решения в таких случаях применяются двусторонние критерии и, соответственно, критические значения для проверки ненаправленных альтернатив.
Перед знакомством с непараметрическими методами сравнения читателю необходимо ознакомиться с порядком и условиями применения их параметрических аналогов.
При выборе того или иного непараметрического метода сравнения выборок можно руководствоваться таблицей классификации методов сравнения (см. рис. 8.2).
СРАВНЕНИЕ ДВУХ НЕЗАВИСИМЫХ ВЫБОРОК
Самым популярным и наиболее чувствительным (мощным) аналогом критерия Г-Стьюдента для независимых выборок является критерий 1/-Манна- Уитни (Мапп-ШгИпеу II). Непараметрическим его аналогом является критерий серий (см. главу 8), который еще проще в вычислительном отношении, но обладает заметно меньшей чувствительностью, чем критерий II.
Эмпирическое значение критерия {/-Манна-Уитни показывает, насколько совпадают (пересекаются) два ряда значений измеренного признака. Чем меньше совпадение, тем больше различаются эти два ряда. Основная идея критерия IIоснована на представлении всех значений двух выборок в виде одной общей последовательности упорядоченных (ранжированных) значений. Основной (нулевой) статистической гипотезе будет соответствовать ситуация, когда значения о цной выборки будут равномерно распределены среди значений другой выборки, то есть когда два ряда значений пересекаются в наибольшей возможной степени. Напротив, отклонению этой гипотезы будет соответствовать ситуация, когда значения одной из выборок будут преобладать на одном из концов объединенного ряда — пересечение двух рядов тогда будет минимальным.
ПРИМЕР 12.1
Обозначим значения переменной для одной выборки X, а для другой выборки — У и упорядочим значения обеих выборок по возрастанию.
Значения |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
16 |
17 |
19 |
Выборка |
X |
У |
X |
X |
У |
У |
X |
У |
У |
У |
У |
У |
Значения одной выборки распределены явно не равномерно среди значений другой выборки: значения выборки /преобладают на правом конце объединенного ряда. Однако критерий серий не позволяет обнаружить статистически значимые различия: всего серий в данном случае 8 и при /и = я = 8 эта величина не выходит за пределы критических значений для а = 0,05 (приложение 5).
Формально, критерий II — это общее число тех случаев, в которых значения одной группы превосходят значения другой группы, при попарном сравнении значений первой и второй групп. Соответственно, вычисляются два значения критерия: 11х и Пу.
Для вычислений «вручную» используются следующие формулы:
п(п +1)
11х =тп-Кг +-
2
+ (12.1)
1/х+ Цу = тп,
где п — объем выборки Х\т — объем выборки У, Кх и Ку — суммы рангов для X и /в объединенном ряду. В качестве эмпирического значения критерия берется наименьшее из 1/х и 11у. Чем больше различия, тем меньше эмпирическое значение (I.
Поскольку критерий V отражает степень совпадения (перекрещивания) двух рядов значений, то значение р-уровня тем меньше, чем меньше значение II. При расчетах «вручную» используют таблицы критических значений критерия {/-Манна-Уитни (приложение 9).
ПРИМЕР 12.1 (продолжение)
Проверим гипотезу о различии выборок ЛТ (численностью т = 8) и У (численностью п= 8) на уровне а = 0,05:
1 |
Значения |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
И |
12 |
13 |
14 |
15 |
16 |
17 |
19 |
2 |
Выборка |
X |
X |
V |
X |
X |
X |
V |
X |
X |
V |
X |
V |
V |
V |
V |
V |
3 |
Ранги |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
И |
12 |
13 |
14 |
15 |
16 |
4 |
Ранги X |
1 |
2 |
4 |
5 |
6 |
8 |
9 |
и |
||||||||
5 |
Ранги У |
3 |
7 |
10 |
12 |
13 |
14 |
15 |
16 |
Ш а г 1. Значения двух выборок объединяются в один ряд, упорядоченный в порядке возрастания или убывания. Обозначается принадлежность каждого значения к той и другой выборке (строки 1 и 2).
111 а г 2. Значения выборок ранжируются, и выписываются отдельно ранги для одной и другой выборки (строки 3-5).
Ш а г 3. Вычисляются суммы рангов по Х(Кх) и по У(Ку): Кх = 46; Ку = 90. 111 а г 4. Вычисляются \]хи 1!упо формуле 12.1:
Ц =8-8-46+ 8(8 + 1) = 54, и =8-8-90+8(8 + 1) = 10, Цх+Ц=64 = тп.
л 2 2
Ш а г 5. Определяется р-уровень значимости: наименьшее из ^/сравнивается с табличным (приложение 9) для соответствующих объемов выборки т = 8 и п = 8. Значение р < 0,05 (0,01), если вычисленное (/эмп < Ц.а6л. В нашем случае наименьшим является Иу = 10, которое и принимается за эмпирическое значение критерия. Оно меньше критического для р = 0,05 {11 = 13), но больше критического для р = 0,01 {II = 7). Следовательно, р < 0,05.
111 а г 6. Принимается статистическое решение и формулируется содержательный вывод. На уровне а = 0,05 принимается статистическая гипотеза о различии Хи У по уровню выраженности признака. Уровень Кстатистически достоверно выше уровня Х(р < 0,05).
Замечание. Связи в рангах для вычислений «вручную» не предусмотрены. Хотя они и незначительно влияют на результат, но если доля одинаковых рангов по одной из переменных велика, то предлагаемый алгоритм неприменим, пользуйтесь компьютерной программой (8Р88, 81аиз11са).
Обработка на компьютере: критерий ^-Манна-Уитни
Для обработки использованы данные примера 12.1. В таблице исходных данных (Ба1а ЕсШог) для каждого из 16 объектов определены значения двух переменных: Vа^1 - значения количественного признака, Vа^2 - бинарная группирующая переменная, обозначающая принадлежность каждого объекта к одной из двух групп.
А) Выбираем Апа1уге > 1Чопрагате1пс Те»!» > 2-1пйереп(1еп1 8атр1е$... (Две независимые выборки).
Б) В открывшемся окне диалога выделяем и переносим при помощи кнопки > из левого окна интересующие переменные (в данном случае Vа^1) в правое верхнее окно (Тез! УапаЫе(8)); группирующую переменную (в данном случае Vа^2), которая делит выборку на подгруппы (Сгоирш§ УапаЫе). Нажимаем кнопку Бейпе Сгоирз... и задаем номера градаций группирующей переменной, которые мы хотим сравнить (1 и 2). Нажимаем СопИпие. Нажимаем ОК.
В) Получаем результаты в виде двух таблиц:
Капкз
УАК2 |
N |
Меап Капк |
Бит о:Ё Капкз |
|
УАК1 1.00 2 .00 ТоЬа! |
8 8 16 |
5.75 11.25 |
46.00 90.00 |
ТевЪ ЗЪаЫвЫсв(Ъ)
УАК1 |
|
Мапп-МЫЬпеу Ц |
10.000 |
МИсохоп N |
46.000 |
2 |
-2.310 |
Азутр. 81д. (2-ЬаИей) |
.021 |
ЕхасС Зхд. [2* (1-СаИей 81д.)] |
.021(а) |
а N01: соггесьей Еог ь1ез. Ь Сгоирхпд Уаг1аЫе: УАК2
В первой таблице содержатся ранговые статистики: средние ранги для групп (Меап Капк) и суммы рангов (8ит оГ Капке). Во второй таблице содержатся результаты проверки гипотезы: эмпирическое значение {/-критерия (Мапп- \\Ъкпеу II) и ^-уровень значимости (Авутр. 8ц». (2-(аНе(1)).
СРАВНЕНИЕ ДВУХ ЗАВИСИМЫХ ВЫБОРОК
Самым чувствительным (мощным) аналогом критерия ^-Стьюдента для зависимых выборок является критерий Т-Вилкоксона (Ш/сохоп щпеА-гапк 1е$1). Непараметрическим его аналогом является критерий знаков, который еще проще в вычислительном отношении, но обладает меньшей чувствительностью, чем критерий Г-Вилкоксона. Критерий Тоснован на упорядочивании величин разностей (сдвигов) значений признака в каждой паре его измерений (критерий знаков основан на учете только знака этой разности). Соответственно, критерий Т, будучи менее чувствительным аналогом /-Стьюдента, более чувствителен по сравнению с другими непараметрическими критериями для повторных измерений (зависимых выборок).
Г-Вилкоксона основан на ранжировании абсолютных разностей пар значений зависимых выборок. Далее подсчитывается сумма рангов для положительных разностей и сумма рангов для отрицательных разностей. Идея критерия Г заключается в подсчете вероятности получения минимальной из этих разностей при условии, что распределение положительных или отрицательных разностей равновероятно и равно 1/2.
Для расчетов «вручную» не требуется особых формул: достаточно подсчитать суммы рангов для положительных и отрицательных разностей. Затем меньшая из сумм принимается в качестве эмпирического значения критерия, значение которого сравнивается с табличным значением (приложение 10), рассчитанным для условия равной вероятности положительных и отрицательных разностей для данного объема выборки. Конечно, чем больше различия, тем меньше эмпирическое значение Т, тем менее вероятно получение такого значения при условии равной вероятности встречаемости положительных и отрицательных разностей, следовательно, тем меньше значение р-уровня.
ПРИМЕР 12.2
Проверим гипотезу о различии значений показателя, измеренного дважды на одной и той же выборке («Условие 1» и «Условие 2»), на уровне а = 0,05:
1 |
№ объекта: |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
2 |
Условие 1: |
6 |
11 |
12 |
8 |
5 |
10 |
7 |
6 |
3 |
9 |
4 |
5 |
3 |
Условие 2: |
14 |
5 |
8 |
10 |
14 |
7 |
12 |
13 |
11 |
10 |
15 |
16 |
4 |
Разность с!\ |
-8 |
6 |
4 |
-2 |
-9 |
3 |
-5 |
-7 |
-8 |
-1 |
-И |
-11 |
5 |
Ранги | й, |: |
8,5 |
6 |
4 |
2 |
10 |
3 |
5 |
7 |
8,5 |
1 |
11,5 |
11,5 |
6 |
Ранги (+): |
6 |
4 |
3 |
|||||||||
7 |
Ранги с! (—): |
8,5 |
2 |
10 |
5 |
7 |
8,5 |
1 |
11,5 |
11,5 |
Ш а г 1. Подсчитать разности значений для каждого объекта выборки (строка 4). Ш а г 2. Ранжировать абсолютные значения разностей (строка 5).
Ш а г 3. Выписать ранги положительных и отрицательных значений разностей (строки 6 и 7).
Ш а г 4. Подсчитать суммы рангов отдельно для положительных и отрицательных разностей: Т, = 13; Т2 = 65. За эмпирическое значение критерия Тэмп принимается меньшая сумма: Гэмп = 13.
111 а г 5. Определяется /^-уровень значимости: Тэмп сравнивается с табличным (приложение 10) для соответствующего объема выборки. Значение р < 0,05 (0,01), если вычисленное Гэмп < Гта6л В нашем случае эмпирическое значение равно критическому значению для р = 0,05. Следовательно, р = 0,05.
Ш а г 6. Принимается статистическое решение и формулируется содержательный вывод. На уровне а = 0,05 принимается статистическая гипотеза о различии двух условий по уровню выраженности изучаемого признака. Уровень выраженности признака для условия 2 статистически значимо выше, чем для условия 1 (/> = 0,05).
Замечание. Связи в рангах абсолютных значений разностей для вычислений «вручную» не предусмотрены. Хотя их влияние и не очень суще
ственно, но если доля одинаковых рангов велика и превышает, скажем, 50%, то предлагаемый алгоритм неприменим, пользуйтесь компьютерной программой (5Р55, ВишзИса) или С-критерием знаков.
Критерий знаков С (1ез1) — менее чувствительная к сдвигам альтернатива критерия Г-Вилкоксона. Для того чтобы им воспользоваться, достаточно подсчитать количество отрицательных и положительных сдвигов.
ПРИМЕР
Проверим гипотезу о различии в отношении данных примера 12.2 с использованием критерия знаков (на уровне а = 0,05).
III а г 1. Подсчитать количество положительных и отрицательных разностей значений (по строке 4). Сдвиг в значениях, соответствующий наибольшему числу из этих разностей, принимается за типичный сдвиг. Количество типичных сдвигов обозначается Ы, а количество нетипичных сдвигов принимается в качестве эмпирического значения критерия Оэмп В нашем случае количество типичных сдвигов N=9, а количество нетипичных сдвигов <7ЭМП = 3.
Ш а г 2. Определяетсяр-уровень значимости: Сэмп (количество нетипичных сдвигов) сравнивается с табличным критическим (приложение 11) для соответствующего N (количества типичных сдвигов). Чем меньше СэМП, тем меньше значение р-уровня. Значение р < 0,05 (0,01), если вычисленное (7ЭМП < (7та6л В нашем случае для N=9 табличное значение ддяр = 0,05 равно 1, и Ошп его превышает. Следовательно,р > 0,05.
Ш а г 3. Принимается статистическое решение и формулируется содержательный вывод. На уровне а = 0,05 принимается нулевая статистическая гипотеза об отсутствии различий. Между условиями 1 и 2 не обнаружены статистически достоверные различия в уровне выраженности изучаемого признака (р > 0,05).
Обработка на компьютере: критерий Т-Вилкоксона
Для обработки использованы данные примера 12.2. Исходные данные для обработки введены в таблицу фа!а Е(Шог) в виде двух переменных: Vа^1 - «Условие 1»; Vа^2 — «Условие 2».
А) Выбираем Апа1уге > 1Чопрагате1псТех!8>2-Ке1а1ей 8атр1е$... (Две зависимые выборки).
Критерий знаков
Б) В открывшемся окне диалога выделяем две переменные (соответствующие двум измерениям одного и того же признака) и переносим пару при помощи кнопки > из левого окна в правое окно (Ра1гей УапаЫе»), Пар может быть несколько. Нажимаем ОК.
Капкв
В) Получаем результаты в виде двух таблиц:
N |
Меап Капк |
5иш оЕ Капкз |
|
УАК1 - УАК2 ЫедаСз^е Капкз Розз-Ьз^е Капкз Т1ез ТоСа! |
3 (а) 9(Ъ) 0 (с) 12 |
4.33 7.22 |
13 .00 65.00 |
а УАК00004 < УАКООООЗ Ь УАК00004 > УАКООООЗ с УАК00004 = УАКООООЗ
ТевЬ ЗСаЫвЫс8(Ь)
УАК1 - УАК2 |
|
2 Азушр. 31д. (2-ЬаИей) |
-2.041(а) .041 |
а Вазей оп педаЬл^е гапкз. Ь МИсохоп Згдпей Капкз ТезЬ
В первой таблице содержатся ранговые статистики: средние ранги (Меап Капк) и суммы рангов (8ит оГКапкз) для отрицательных (№§аИуе Капке) и положительных (РоеШуе Капке) сдвигов, а также количество одинаковых рангов (Нее). Во второй таблице содержатся результаты проверки гипотезы: эмпирическое значение г-критерия (2) и р-уровень значимости (Азутр. 8ц». (2-(аНе<1)).
СРАВНЕНИЕ БОЛЕЕ ДВУХ НЕЗАВИСИМЫХ ВЫБОРОК
Критерий НКраскала-Уоллеса (Кгизка1-\УаШз Н) является непараметрическим аналогом однофакторного дисперсионного анализа (АТЯОУА) для независимых выборок, поэтому другое его название — Однофакторный дисперсионный анализ Краскала-Уоллеса (Кгшка1-\УаШз опе-ту апа1узЬ о/уапапсе). Он позволяет проверять гипотезы о различии более двух выборок по уровню выраженности изучаемого признака.
Я-Краскала-Уоллеса по идее сходен с критерием {У-Манна-Уитни. Как и последний, он оценивает степень пересечения (совпадения) нескольких рядов значений измеренного признака. Чем меньше совпадений, тем больше различаются ряды, соответствующие сравниваемым выборкам. Основная идея критерия Я-Краскала-Уоллеса основана на представлении всех значений сравниваемых выборок в виде одной общей последовательности упорядоченных (ранжированных) значений, с последующим вычислением среднего ранга для каждой из выборок. Если выполняется статистическая гипотеза об отсутствии различий, то можно ожидать, что все средние ранги примерно равны и близки к общему среднему рангу.
Эмпирическое значение критерия Я-Краскала-Уоллеса вычисляется после ранжирования всех значений сравниваемых выборок по формуле:
1? к Я2
Я = У-^--З(ЛГ-И), (12.2)
где ./V— суммарная численность всех выборок; к — количество сравниваемых выборок; Л, — сумма рангов для выборки <; и, — численность выборки /'. Чем сильнее различаются выборки, тем больше вычисленное значение Н и тем меньше р-уровень значимости.
При расчетах «вручную» для определения р-уровня пользуются таблицами критических значений. Если объем каждой выборки больше 5 и количество выборок больше трех, то эмпирическое значение критерия сравнивается с х2 (приложение 4) для к — 1 (к — число выборок). Если сравниваются 3 выборки и объем каждой выборки меньше 5, то пользуются таблицей критических значений Я-Краскала-Уоллеса (приложение 12).
При отклонении нулевой статистической гипотезы об отсутствии различий принимается альтернативная гипотеза о статистически достоверных различиях выборок по изучаемому признаку — без конкретизации направления различий. Для утверждений о том, что уровень выраженности признака в какой-то из сравниваемых выборок выше или ниже, необходимо парное соотнесение выборок по критерию II-Манна-Уитни.
ПРИМЕР 12.3
Проверим гипотезу о различии выборок 1, 2 и 3 на уровне а = 0,05:
1 |
Значения |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
И |
12 |
13 |
14 |
15 |
16 |
17 |
19 |
2 |
Выборка |
1 |
1 |
2 |
1 |
1 |
1 |
2 |
1 |
1 |
2 |
1 |
3 |
2 |
3 |
3 |
2 |
3 |
Ранги |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
И |
12 |
13 |
14 |
15 |
16 |
4 |
Ранги 1 |
1 |
2 |
4 |
5 |
6 |
8 |
9 |
11 |
||||||||
5 |
Ранги 2 |
3 |
7 |
10 |
13 |
16 |
|||||||||||
6 |
Ранги 3 |
12 |
14 |
15 |
Шаг 1. Значения выборок объединяются в один ряд, упорядоченный в порядке возрастания или убывания. Обозначается принадлежность каждого значения к той или иной выборке (строки 1 и 2).
Ш а г 2. Значения выборок ранжируются и выписываются отдельно ранги для каждой выборки (строки 3—6).
Ш а г 3. Вычисляются суммы рангов для каждой выборки и проверяется правильность расчетов. = 46; Я2 =49; Я3 = 41. Общая сумма рангов должна быть равна 1)/2 = 16x17/2= 136. Равенство соблюдено.
Ш а г 4. Вычисляется Я по формуле 12.2:
н_ 12 Г 462 | 492 | 412
~ " + 5 + 3
16(16 + 1)
Шаг 5. Определяется /^-уровень значимости. Хотя сравниваются 3 выборки, но объем одной из них больше 5, поэтому вычисленное Я сравнивается с табличным значением х2 (приложение 4) для числа степеней свободы й/=Ъ— 1 = 2. Эмпирическое значение Я находится между критическими для р = 0,05 и р = 0,01. Следовательно, р < 0,05.
Ш а г 6. Принимается статистическое решение и формулируется содержательный вывод. На уровне а = 0,05 гипотеза Н0 отклоняется. Содержательный вывод: сравниваемые выборки различаются статистически достоверно по уровню выраженности признака (р < 0,05).
Отметим, что на основании такой проверки мы не можем сделать конкретный вывод о направлении различий йотом, в какой выборке признак принимает большие или меньшие значения. Для этого необходимо парное соотнесение выборок по соответствующему критерию (С/-Манна-Уитни).
Обработка на компьютере: критерий Я-Краскала-Уоллеса
Для обработки использованы данные примера 12.3. В таблице исходных данных (Ба1а Ейког) для каждого из 16 объектов определены значения двух переменных: Vа^1 — значения количественного признака, Vа^2 — группирующая переменная, обозначающая принадлежность каждого объекта к одной из трех сравниваемых групп.
Б) В открывшемся окне диалога выделяем и переносим при помощи кнопки > из левого окна интересующие переменные в правое верхнее окно (Тез1 УапаЫе(«)) (в данном случае — Vа^1); группирующую переменную, которая делит выборку на подгруппы (Сгоирш§ УапаЫе) (в данном случае — Vа^2). Нажимаем кнопку ОеПпе Кап§е... и задаем диапазон градаций группирующей переменной (градации должны нумероваться подряд) — от минимума (Мш- тит) до максимума (Мах^тит) (в данном случае — от 1 до 3). Нажимаем СопИпие. Нажимаем ОК.
-3(16 + 1) = 6,575.
Еапкз
УАК2 |
N |
Меап Капк |
|
УАК1 |
1 .00 |
8 |
5.75 |
2 .00 |
5 |
9.80 |
|
3 .00 |
3 |
13 . 67 |
|
То(:а1 |
16 |
ТевЪ ЗЪа^вЫсв (а,Ъ)
УАК1
СМ -Зчиаге йЕ
Азутр. 81д.
6 . 575 2
.037
а Кгизка! ИаШз ТезЬ Ь Сгоирд_пд УаггаЫе: УАКООООб
1
(12.3)
где N — число объектов (испытуемых), к — количество условий (повторных измерений), Я, — сумма рангов для условия /.
При расчетах «вручную» для определения ^-уровня пользуются таблицами критических значений. Если к=3, N>9 или к > 3, 4, то пользуются обычной таблицей для у},й[ = к— 1 (приложение 4). Если к = 3, N < 10 или к = 4,
В первой таблице содержатся ранговые статистики: средние ранги для каждой группы (Меап Капк). Во второй таблице содержатся результаты проверки гипотезы: эмпирическое значение критерия х2 (СЫ-8диаге), число степеней свободы (40 и р-уровень значимости (Азутр. 8|§.).
СРАВНЕНИЕ БОЛЕЕ ДВУХ ЗАВИСИМЫХ ВЫБОРОК
Критерий %2-Фридмана (Гпейтап Ге$() является непараметрическим аналогом однофакторного дисперсионного анализа (А1ЧОУА) для повторных измерений. Он позволяет проверять гипотезы о различии более двух зависимых выборок (повторных измерений) по уровню выраженности изучаемого признака. Критерий х2-Фридмана может быть более эффективен, чем его метрический аналог АТЧОУА в случаях повторных измерений изучаемого признака на небольших выборках.
Критерий х2-Фридмана основан на ранжировании ряда повторных измерений для каждого объекта выборки. Затем вычисляется сумма рангов для каждого из условий (повторных измерений). Если выполняется статистическая гипотеза об отсутствии различий между повторными измерениями, то можно ожидать примерное равенство сумм рангов для этих условий. Чем больше различаются зависимые выборки по изучаемому признаку, тем больше эмпирическое значение х2-Фридмана.
Эмпирическое значение х2-Фридмана вычисляется после ранжирования ряда повторных измерений для каждого объекта по формуле:
N< 5, то пользуются дополнительными таблицами критических значений X2-Фридмана (приложение 13).
При отклонении нулевой статистической гипотезы об отсутствии различий принимается альтернативная гипотеза о статистически достоверных различиях выборок по изучаемому признаку — без конкретизации направления различий. Для утверждений о том, что уровень выраженности признака в какой-то из сравниваемых выборок выше или ниже, необходимо парное соотнесение выборок по критерию Т-Вилкоксона.
ПРИМЕР 12.4
Проверим гипотезу о различии четырех зависимых выборок по уровню выраженности признака Х(о различии четырех условий для одной и той же выборки). Для принятия статистического решения а = 0,05:
№ |
Условие 1 |
Условие 2 |
Условие 3 |
Условие 4 |
||||
X |
Ранг |
X |
Ранг |
X |
Ранг |
X |
Ранг |
|
1 |
6 |
2 |
14 |
3.5 |
5 |
1 |
14 |
3.5 |
2 |
11 |
3 |
5 |
2 |
4 |
1 |
12 |
4 |
3 |
12 |
4 |
8 |
2 |
7 |
1 |
10 |
3 |
4 |
8 |
1 |
10 |
2 |
11 |
3 |
12 |
4 |
5 |
5 |
1 |
14 |
3.5 |
10 |
2 |
14 |
3.5 |
6 |
10 |
3 |
7 |
2 |
6 |
1 |
12 |
4 |
Сумма рангов: |
14 |
15 |
9 |
22 |
Ш а г 1. Для каждого объекта условия ранжируются (по строке).
Ш а г 2. Вычисляется сумма рангов для каждого условия: = 14, К2 = 15, К3 = 9, К4=22.
(142 +152 +92 + 222)
х;
Ш а г 3. Вычисляется эмпирическое значение х2-Фридмана по формуле 12.3: 12
-3-6'(4 + 1) = 8,6; <// = 3.
6-4-(4 + 1)
Ш а г 4. Определяется р-уровень значимости. Так как к > 3, N > 4, то пользуются обычной таблицей для %2 (приложение 4). Эмпирическое значение %2 находится между критическими для р = 0,05 и р = 0,01. Следовательно, р < 0,05.
Ш а г 5. Принимается статистическое решение и формулируется содержательный вывод. На уровне а = 0,05 гипотеза Н0 отклоняется. Содержательный вывод: сравниваемые условия статистически достоверно различаются по уровню выраженности признака (р < 0,05).
Отметим, что на основании такой проверки мы не можем сделать конкретный вывод о направлении различий и о том, в каких условиях признак принимает большие или меньшие значения. Для этого необходимо парное соотнесение условий по соответствующему критерию (Г-Вилкоксона).
Обработка на компьютере: критерий х2-Фридмана
Для обработки использованы данные примера 12.4. Исходные данные для обработки введены в таблицу (Ба*а Еййог) в виде четырех переменных, соответствующих четырем сравниваемым условиям (уаг1, ..., уаг4).
Б) В открывшемся окне диалога выделяем переменные (соответствующие нескольким измерениям одного и того же признака) и переносим их при помощи кнопки > из левого окна в правое окно (Тез! УапаЫез). Переменных должно быть больше двух (в данном случае 4). Нажимаем ОК.
капка
Меап |
Капк |
|
УАК1 |
2 . |
33 |
УАК.2 |
2 |
50 |
УАКЗ |
1 |
50 |
УАК4 |
3 . |
67 |
ТезЪ 8ЪаЫз1;1сз (а)
N |
6 |
СЫ-Зчиаге |
8.897 |
ас |
3 |
Азутр. 31д. |
.031 |
а Ргхейтап ТезЬ
В первой таблице содержатся ранговые статистики: средние ранги для каждой группы (Меап Капк). Во второй таблице содержатся результаты проверки гипотезы: эмпирическое значение критерия %2 (СЫ-8яиаге), число степеней свободы (й/) и /^-уровень значимости (Азутр. 818.).
Глава 13
ДИСПЕРСИОННЫЙ АНАЛИЗ (А1ЧОУА)
НАЗНАЧЕНИЕ И ОБЩИЕ ПОНЯТИЯ АШУА1
Общепринятое сокращенное обозначение дисперсионного анализа — АЮУА (от англоязычного АЫа1у518 О!-УАпапсе). В соответствии с принятой классификацией, А1ЧОУА — это метод сравнения нескольких (более двух) выборок по признаку, измеренному в метрической шкале. Как и в случае сравнения двух выборок при помощи критерия /-Стьюдента, А1ЧОУА решает задачу сравнения средних значений, но не двух, а нескольких. Кроме того, метод допускает сравнение выборок более чем по одному основанию — когда деление на выборки производится по нескольким номинативным переменным, каждая из которых имеет 2 и более градаций.
ПРИМЕР
Исследовалось влияние на продуктивность воспроизведения вербального материала (К): а) интервала между 5 повторениями (Хх — 3 градации: 1 — 0 мин, 2 — 3 мин, 3—10 мин) и б) трудность материала (Х2 — 2 градации: 1 — легкий, 2 — трудный).
Структура данных:
№ . |
ЛГ, (интервал) |
Х2 (объем) |
^'(эффективность воспроизведения) |
1 |
1 |
2 |
8 |
2 |
3 |
2 |
9 |
3 |
2 |
1 |
4 |
4 |
1 |
1 |
5 |
N |
2 |
2 |
6 |
1 В данной главе содержатся лишь самые необходимые сведения о дисперсионном анализе. Более полное изложение особенностей применения этого мощного и многогранного метода читатель может найти в других источниках, например, в кн.: Гусева А. Н. Дисперсионный анализ в экспериментальной психологии. М., 2000.
Специфика АЫОУА проявляется в двух отношениях: во-первых, этот метод использует терминологию планирования эксперимента; во-вторых, для сравнения средних значений анализируются компоненты дисперсии изучаемого признака.
АЫОУА был разработан Р. Фишером специально для анализа результатов экспериментальных исследований. Соответственно, различные варианты АЫОУА воспроизводят наиболее типичные планы организации эксперимента.
Типичная схема эксперимента сводится к изучению влияния независимой переменной (одной или нескольких) на зависимую переменную. Независимая переменная (1пс1ерепс1еп1 УапаЫе) представляет собой качественно определенный (номинативный) признак, имеющий две или более градации. Каждой градации независимой переменной соответствует выборка объектов (испытуемых), для которых определены значения зависимой переменной. Независимая переменная еще называется фактором (Рас(ог), имеющим несколько градаций (уровней). Зависимая переменная (БерепйеШ УапаЫе) в экспериментальном исследовании рассматривается как изменяющаяся под влиянием независимых переменных. В модели АЫОУА зависимая переменная должна быть представлена в метрической шкале. В простейшем случае независимая переменная имеет две градации, и тогда задача сводится к сравнению двух выборок по уровню выраженности (средним значениям) зависимой переменной.
В зависимости от соотношения выборок, соответствующих разным градациям (уровням) фактора, различают два типа независимых переменных (факторов). Градациям (уровням) межгруппового фактора соответствуют независимые выборки объектов. Градациям (уровням) внутригруппового фактора соответствуют зависимые выборки, чаще всего повторные измерения зависимой переменной на одной и той же выборке.
В зависимости от типа экспериментального плана выделяют четыре основных варианта АЫОУА: однофакторный, многофакторный, АМОУА с повторными измерениями и многомерный АЫОУА. Каждый из этих вариантов дисперсионного анализа будет подробно рассмотрен далее в этой главе, а сейчас ограничимся их краткой характеристикой.
Однофакторный АЫОУА (Опе-УУауАЫОУА) используется при изучении влияния одного фактора на зависимую переменную. При этом проверяется одна гипотеза о влиянии фактора на зависимую переменную.
Многофакторный (двух-, трех-, ... -факторный) АЫОУА (2-\Уау, З-Шу... АЫОУА) используется при изучении влияния двух и более независимых переменных (факторов) на зависимую переменную. Многофакторный АЫОУА позволяет проверять гипотезы не только о влиянии каждого фактора в отдельности, но и о взаимодействии факторов. Так, для двухфакторного АЫОУА проверяются три гипотезы: а) о влиянии одного фактора; б) о влиянии другого фактора; в) о взаимодействии факторов (о зависимости степени влияния одного фактора от градаций другого фактора).
ПРИМЕР
Предположим, изучается влияние на зрительскую оценку различных фильмов (зависимая переменная) двух факторов: жанра фильма (мелодрама, комедия, боевик) и пола зрителя. Вполне вероятно, что в результате такого исследования будут обнаружены не главные эффекты изучаемых факторов (влияние каждого из них в отдельности), а их взаимодействие. Взаимодействие факторов «жанр фильма» и «пол зрителя» будет означать, что мужчины и женщины по-разному оцениваютфильмы в зависимости от их жанра (фильмы разных жанров оцениваются по-разному, в зависимости от пола зрителя).
АМОУА с повторными измерениями (Кереа1ей Меазигез АМОУА) применяется, когда по крайней мере один из факторов изменяется по внутригрупповому плану, то есть различным градациям этого фактора соответствует одна и та же выборка объектов (испытуемых). Соответственно, в модели АМОУА с повторными измерениями выделяются внутригрупповые и межгрупповые факторы. Для двухфакторного АМОУА с повторными измерениями по одному из факторов проверяются три гипотезы: а) о влиянии внутригруппового фактора; б) о влиянии межгруппового фактора; в) о взаимодействии внутригруппового и межгруппового факторов.
Многомерный АМОУА (МиШчапа1е АМОУА, МАЫОУА) применяется, когда зависимая переменная является многомерной, иначе говоря, представляет собой несколько (множество) измерений изучаемого явления (свойства).
Дополнительно выделяют модели АЫОУА с постоянными (фиксированными) и случайными эффектами — различаются способами задания уровней (градаций) фактора. В модели с постоянными эффектами (Пхес1 РасШз) уровни остаются фиксированными (одними и теми же) и при проведении данного выборочного исследования: как при обобщении результата на генеральную совокупность, так и при повторном проведении исследования. В модели со случайными эффектами (Капйот Рас1огз) уровни фактора представляют собой более или менее случайную выборку из множества других возможных уровней данного фактора. Конечно, интерпретация (обобщение) результатов будет зависеть от используемой модели. При обработке данных различие между моделями в однофакторном АМОУА может не учитываться, но должно учитываться в двух- (и более) факторном АМОУА. В последнем случае результаты обработки для разных моделей будут различными. Допускается сочетание фиксированных и случайных факторов в одном исследовании.
ПРИМЕР
Сравнивалась эффективность двух учебных программ. Для этого из нескольких сотен школ города было выбрано 5, а в них — по два параллельных класса, ученики которых обучались по разным программам. Исследование представляло собой реализацию двухфакторного плана с одним фиксированным (учебная программа: две градации) и одним случайным факторами (школа: пять градаций). Такое исследование позволяет проверить гипотезу не только об эффективности учебных программ, но и о том, будет ли различаться их эффективность в разных школах города.
В случае, если фактор имеет более двух градаций, то подтверждение гипотезы о его влиянии позволяет сделать лишь неопределенный вывод о том, что по крайней мере две градации фактора различаются. Для более конкретного вывода о том, какие именно градации фактора различаются, в АЫОУА предусмотрена процедура множественных сравнений (Роз( Нос тиШр1е сотратоп
Во всех вариантах АЫОУА наряду с изучением влияния факторов допускается изучение влияния метрической независимой переменной. Метрическая независимая переменная в этом случае называется ковариатой (Соуапа1е), и дисперсионный анализ включает в себя ковариационный анализ.
Математическая идея АЫОУА основана на соотнесении межгрупповой и внутригрупповой частей дисперсии (изменчивости) изучаемой зависимой переменной. Известно, что при объединении двух (или более) выборок с примерно одинаковой дисперсией, но с разными средними значениями дисперсия увеличивается пропорционально различиям средних значений этих выборок. Это связано с тем, что к внутригрупповой дисперсии добавляется дисперсия, обусловленная различиями между группами. В модели АЫОУА внутригрупповая изменчивость рассматривается как обусловленная случайными причинами, а межгрупповая — как обусловленная действием изучаемого фактора на зависимую переменную. Соответственно, в общей изменчивости (дисперсии) зависимой переменной выделяются две компоненты: внутригрупповая (случайная) и межгрупповая (факторная) изменчивость. Чем больше отношение межгрупповой изменчивости к внутригрупповой, тем выше факторный эффект — тем больше различаются средние значения, соответствующие разным градациям фактора.
Нулевая гипотеза в АЫОУА содержит утверждение о равенстве межгрупповой и внутригрупповой составляющих изменчивости и подразумевает направленную альтернативу — о том, что межгрупповая составляющая изменчивости превышает внутригрупповую изменчивость. Нулевой гипотезе соответствует равенство средних значений зависимой переменной на всех уровнях фактора. Принятие альтернативной гипотезы означает, что по крайней мере два средних значения различаются (без уточнения, какие именно градации фактора различаются).
Основные допущения АЫОУА. а) распределения зависимой переменной для каждой градации фактора соответствуют нормальному закону; б) дисперсии выборок, соответствующих разным градациям фактора, равны между собой; в) выборки, соответствующие градациям фактора, должны быть независимы (для межгруппового фактора). Выполнение допущения о независимости выборок является обязательным в любом случае. Последствия нарушений остальных двух допущений требуют специального рассмотрения.
Нарушение предположения о нормальности распределения, как показали многочисленные исследования, не оказывает существенного влияния на результаты АЫОУА (Шеффе, 1980; Гласс, Стэнли, 1977 и др.). Следовательно, перед проведением АЫОУА нет необходимости в проверке соответствия выборочных распределений нормальному закону.
Нарушение предположения о равенстве (однородности, гомогенности) дисперсий имеет существенное значение для АЫОУА в том случае, если сравниваемые выборки отличаются по численности. Таким образом, если выборки, соответствующие разным градациям фактора, отличаются по численности, то необходима предварительная проверка гомогенности (однородности) дисперсий. В компьютерных программах это осуществляется при помощи критерия Ливена (Ьеуепе'з Тез! оГ Ното§епеИ:у оГУапапсез). Если выборки заметно различаются по численности и дисперсии по критерию Ливена различаются статистически достоверно, то АЫОУА к таким данным не применим, следует воспользоваться непараметрической альтернативой.
В основе современных программных реализаций дисперсионного анализа лежит представление о родственности дисперсионного и множественного регрессионного анализа: оба метода исходят из одной и той же линейной модели. В связи с этим, а также в связи с применением в дисперсионном анализе процедур и показателей, характерных для множественной регрессии, в последнее время все варианты дисперсионного анализа объединяются (например, в программе 5Р88) под названием: Общая линейная модель (ОЬМ — Сепега1 Ыпеаг Мос1е1).
Параметрическими аналогами АМОУА являются такие многомерные методы, как множественный регрессионный анализ (глава 15) и дискриминант- ный анализ (глава 17). Отличие модели множественного регрессионного анализа заключается в том, что все переменные в ней, в том числе и независимые, представлены в метрической шкале. В модели дискриминантного анализа, в отличие отАЫОУА, зависимая переменная является классифицирующей (номинативной), а независимые переменные — метрическими.
Непараметрическими аналогами АЫОУА, как отмечалось, являются критерии Я-Краскала-Уоллеса (для независимых выборок) и х2-Фридмана (для повторных измерений).
Вычислительные сложности, связанные с проведением А1ЧОУА, представляли проблему до появления компьютеров и специальных статистических программ. Современные статистические программы (8Р88, 8ТАТ18Т1СА) избавляют пользователя от утомительных расчетов. Однако понимание и правильная интерпретация получаемых показателей обязательно требуют наличия общего представления о том, как они вычисляются. Поэтому изложение основных методов АЫОУА будет сопровождаться демонстрацией расчетов на упрощенных примерах, которые будущему пользователю компьютерных программ желательно внимательно изучить.
ОДНОФАКТОРНЫЙ АГЧОУА
Однофакторный (Опе-Шау) АМОУА позволяет проверить гипотезу о том, что изучаемый фактор оказывает влияние на зависимую переменную (средние значения, соответствующие разным градациям фактора, различаются).
Математическая модель однофакторного АЫОУА предполагает выделение в общей изменчивости зависимой переменной двух ее составляющих. Межгрупповая (факторная) составляющая изменчивости обусловлена различием средних значений под влиянием фактора. Внутригрупповая (случайная) составляющая изменчивости обусловлена влиянием неучтенных причин. Соотношение первой и второй из указанных составляющих изменчивости и есть основной показатель, определяющий статистическую значимость влияния фактора (различия средних значений групп, соответствующих уровням фактора).
Нулевая статистическая гипотеза содержит утверждение о равенстве средних значений. При ее отклонении принимается альтернативная гипотеза о том, что по крайней мере два средних значения различаются.
Исходные предположения: распределение зависимой переменной в сравниваемых генеральных совокупностях характеризуется нормальным законом и одинаковыми дисперсиями. Выборки являются случайными и независимыми. Проверка исходных предположений сводится к проверке однородности дисперсии в сравниваемых выборках в случае, если они заметно различаются по численности.
Структура исходных данных, изучаемый признак измерен у объектов (испытуемых), каждый из которых принадлежит к одной из нескольких сравниваемых выборок.
ПРИМЕР
Структура данных:
Исследовалось влияние на продуктивность воспроизведения (У) вербального материала интервала между 5 повторениями {Х\ — 3 градации: 1 — 0 мин, 2 — 3 мин, 3—10 мин).
№ |
X, (интервал) |
/(эффективность воспроизведения) |
1 |
1 |
8 |
2 |
3 |
9 |
3 |
2 |
4 |
4 |
1 |
5 |
N |
2 |
6 |
Ограничения: если дисперсии выборок различаются статистически достоверно, то метод неприменим. Для проверки однородности дисперсии применяется критерий Ливена (Ьеуепе'з Тек! оГНото§епеку оГУапапсез). Формально численность выборок не должна быть менее 2 объектов (фактически необходимо иметь не менее 5 объектов в каждой выборке).
Альтернатива методу: сравнение независимых выборок по критерию Н- Краскала-Уоллеса.
Основной результат: принятие или отклонение нулевой статистической гипотезы о равенстве средних значений, соответствующих разным уровням фактора. Основной показатель для принятия решения — /^-уровень значимости критерия /^-Фишера.
Дополнительно возможны множественные сравнения средних значений, позволяющие сделать вывод о том, как различаются друг от друга средние значения для разных градаций фактора.
Рассмотрим общие принципы и последовательность вычислений для од- нофакторного АЫОУА в случае равной численности сравниваемых выборок.
Исходная идея АТЧОУА заключается в возможности разложения показателя изменчивости признака на две составляющие: изменчивость внутри групп и изменчивость между группами. В качестве показателя изменчивости используется сумма квадратов отклонения значений признака от среднего, которая обозначается ^(Бит оГЗяиагек).
Общая (То1а\) сумма квадратов (5510Ш1) является показателем общей изменчивости зависимой переменной и представляет собой числитель дисперсии:
/ = 1
Соответственно, общая сумма квадратов равна сумме межгрупповой и внут- ригрупповой сумм квадратов:
З^юш! = +
Межгрупповая (ВеМееп-Огоир) сумма квадратов (85ь$) — показатель изменчивости между к группами (каждая численностью п объектов):
1=\
где М) — среднее значение для группы/
Отношение межгрупповой и общей суммы квадратов показывает долю общей дисперсии зависимой переменной, обусловленную влиянием фактора. Этот показатель идентичен по смыслу квадрату коэффициента корреляции в регрессионном анализе, поэтому тоже называется коэффициентом детерминации (К2)\
К2= ^Ьц
Коэффициент детерминации может принимать значения от 0 до 1. Чем больше этот показатель, тем больше влияние изучаемого фактора на дисперсию зависимой переменной. Помноженный на 100, он выражает процент учтенной дисперсии.
Внутригрупповая (ШШт-Сгоир) сумма квадратов — показатель случайной изменчивости (внутри групп):
я?,* = Е5>,-Щ)2.
У=1/=1
На величину сумм квадратов влияет численность и количество сравниваемых групп. Поэтому для сопоставления межгрупповой и внутригрупповой изменчивости используются средние квадраты (обозначается М5 — от английского Меап оГЗяиагек). Средний квадрат — это частное отделения суммы квадратов на соответствующее число степеней свободы.
Каждая сумма квадратов характеризуется своим числом степеней свободы (ф. Так, общее число степеней свободы соответствует общей сумме квадратов и равно:
Заметим, что частное от деления общей суммы квадратов на общее число степеней свободы — общий средний квадрат — это общая дисперсия.
Число степеней свободы для межгрупповой суммы квадратов равно числу слагаемых минус один (число групп минус 1):
= 1.
Число степеней свободы для внутригрупповой суммы квадратов:
= ~ 4/ьх = М- к.
После определения числа степеней свободы вычисляются средние квадраты.
55
М5к = — — межгрупповой средний квадрат;
* 4Г*
= —— — внутригрупповой средний квадрат.
Следует отметить, что тот и другой средние квадраты представляют собой различные выборочные оценки одной и той же генеральной дисперсии — для случая, когда сравниваемые средние не различаются. Однако это не так в случае, если хотя бы два из всех сравниваемых средних различаются: тогда межгрупповой средний квадрат превысит внутригрупповой средний квадрат. И чем больше величина отношения межгруппового к внутригрупповому среднему квадрату, тем больше оснований считать, что сравниваемые средние значения различаются. Соответственно, основным показателем АЫОУА является Р-отношение — эмпирическое значение критерия /'-Фишера:
М5Ь„
Процедура проверки Н0 подразумевает направленную альтернативу, так как ее отклонению соответствует только большее значение Рэ (М5Ьш > М5КЯ). Поэтому для определения/?-уровня значимости при вычислениях «вручную» применяются таблицы критических значений /^-распределения для направленных альтернатив (односторонний критерий). Для одних и тех же ё?уровень значимости возрастает (р-уровень убывает) при возрастании Рэ.
Последовательность выполнения АЫОУА является общей для любого числа факторов. Вначале в общей изменчивости зависимой переменной выделяются основные ее составляющие. (В од- нофакторном АЫОУАих две: внутригрупповая (случайная) и межгрупповая (факторная) изменчивость.) После этого вычисляются соответствующие показатели в следующей последовательности:
ПРИМЕР 13.1
Предположим, изучалось различие в продуктивности воспроизведения одного и того же материала трех групп испытуемых (по 5 человек), различающихся условиями предъявления этого материала для запоминания. Зависимая переменная (У) — количество воспроизведенных единиц материала, независимая переменная (фактор) — условия предъявления (три градации). Проверим на уровне а = 0,01 гипотезу о том, что продуктивность воспроизведения материала зависит от условий его предъявления.
Условие121 Условие 122
Так зависит л и запоминание материала от условий его предъявления?
Условие 1 |
Условие 2 |
Условие 3 |
|||
№ |
У |
№ |
У |
№ |
У |
1 |
5 |
6 |
8 |
11 |
11 |
2 |
4 |
7 |
7 |
12 |
9 |
3 |
3 |
8 |
6 |
13 |
7 |
4 |
6 |
9 |
9 |
14 |
10 |
5 |
7 |
10 |
5 |
15 |
8 |
Общее среднее: М= 7.
Среднее для разных условий: Мх = 5; М2 = 7; Л/3 = 9.
Ш а г 1. Вычислим внутригрупповые суммы квадратов:
= Х(*, - М)1 = (5 ■- 7)2 + (4 - 7)2 +... + (8 -7)2 = 70 ; /-1
55* = 1 -Л/)2 =5[(5-7)2 +(7-7)2 +(9-7)2] =40 ;
0-40 = 30.
Ш а г 2. Определим числа степеней свободы:
=к- 1 = 3 - 1 = 2; =М-к = 15 - 3 = 12. Ш а г 3. Вычислим средние квадраты:
40 зо
М5Ь = —= — = 20; МУ =—^- = — = 2,5.
* <0* 2 4 С, 12
Ш а г 4. Вычислим /"-отношение:
М5к _ 20 _0
Р = -
2,5
1>Х
Шаг 5. Определим /ьуровень значимости. По таблице критических значений /^-распределения (для направленных альтернатив) (приложение 3) для р = 0,01; ^/числ =2; с1/3нам = 12 критическое значение равно Р= 6,927. Следовательно, р< 0,01. Дополнительно вычислим коэффициент детерминации:
* = =0,571.
70
Оформим результат в виде таблицы:
Источник изменчивости |
Сумма квадратов (Я5) |
с1/ |
Средний квадрат ХМ5) |
Р |
р-уровень |
Межгрупповой |
40 |
2 |
20 |
8 |
<0,01 |
Внутригрупповой |
30 |
12 |
2,5 |
— |
— |
Обший |
70 |
14 |
— |
— |
— |
К2 = 0,571.
Ш а г 6. Принимаем статистическое решение и формулируем содержательный вывод. Отклоняем Н0 и принимаем альтернативную гипотезу о том, что межгрупповая изменчивость выше внутригрупповой. Содержательный вывод: обнаружено статистически достоверное влияние условий предъявления материала на продуктивность его воспроизведения (р < 0,01). Или: средние значения продуктивности воспроизведения материала статистически достоверно различаются в зависимости от условий его предъявления (р < 0,01).
В АЫОУА с выборками неравной численности вычисления несколько усложняются. Изменения касаются формулы для вычисления межгрупповой суммы квадратов:
где и,- — численность группы/
Кроме того, если группы различаются по численности, необходима проверка гомогенности дисперсии с использованием критерия Ливена.
Обработка на компьютере
Рассмотрим применение однофакторного А1ЧОУА к данным примера 13.1. Исходные данные для анализа введены в таблицу (Ба(а ЕйКог) в следующем виде:
уозрг |
±1 |
|
1 |
5 |
1 |
2 |
4 |
1 |
3 |
3 |
1 |
4 |
6 |
1 |
5 |
7 |
1 |
6 |
8 |
2 |
7 |
7 |
2 |
8 |
6 |
2 |
9 |
9 |
2 |
10 |
5 |
2 |
11 |
11 |
3 |
12 |
9 |
3 |
13 |
7 |
3 |
14 |
10 |
3 |
15 |
8 |
3 |
А) Описательные статистики:
ОезсггрЬд^ез
УОЗРК
N |
Меап |
ЗЬй. Оеу^аЫоп |
ЗЬй. Еггог |
|
1. 00 |
5 |
5.0000 |
1.58114 |
.70711 |
2.00 |
5 |
7.0000 |
1. 58114 |
.70711 |
3.0 0 |
5 |
9.0000 |
1.58114 |
.70711 |
ТоЬа! |
15 |
7.0000 |
2.23607 |
.57735 |
Первая колонка — номера градаций фактора, вторая колонка (К) — численность выборок, Меап — средние значения, 8гс1. Оеу1аГюп — стандартное отклонение, 51с1. Еггог — ошибка среднего.
В) Проверка однородности дисперсии:
ТезЬ оС НотодепехЬу оС Уаг1апсез УОЗРК
Ьеуепе 5ЬаЬ1з1:1с |
в.а |
<Н2 |
51д. |
.000 |
2 |
12 |
1.000 |
Тест Ливена показывает, что статистически достоверных различий между дисперсиями не обнаружено > 0,05). Следовательно, допустимо применение АЫОУА.
С) Результаты АЫОУА:
А1\ЮУА
УОЗРК
Зиш оЕ Здиагез |
Меап Здиаге |
Р |
51д. |
||
ВеЬмееп Сгоирз |
40.000 |
2 |
20 . 000 |
8 . 000 |
.006 |
И11:Ып Сгоирз |
30.000 |
12 |
2.500 |
||
ТоЬа! |
70.000 |
14 |
Результаты соответствуют тем, которые были получены при обработке этих данных «вручную»: условия предъявления слов статистически достоверно влияют на продуктивность их воспроизведения. Б) График средних значений:
Р1
График средних значений облегчает интерпретацию факторного эффекта: продуктивность воспроизведения монотонно возрастает от первого к третьему условию предъявления.
МНОЖЕСТВЕННЫЕ СРАВНЕНИЯ В А1ЧОУА
В состав процедур АМОУА включаются множественные сравнения средних значений для разных уровней фактора: парные сравнения средних после отклонения Н0(Ро51 Нос Тезгз); метод контрастов (Соп1газ1з).
Методы сравнения средних после отклонения Н0 об отсутствии различий предназначены для выделения тех пар средних, которые привели к отклонению Н0. Эти методы сводятся к последовательному сопоставлению всех пар средних значений для одного фактора. Применение для этих целей, казалось бы, подходящего критерия Г-Стыодента является некорректным, так как дело касается проверки одновременно нескольких гипотез. Тем не менее, разработано множество процедур корректного множественного сравнения пар средних (методы Бонферрони, Тьюки, Дункан, Шеффе и др.). Рассмотрим один из них — наиболее популярный метод Шеффе (8ске//ё 1е$1).
При использовании метода Шеффе достоверность различия средних значений определяется по формуле эмпирического значения критерия /-Шеффе:
М, -М.
где Ми М2 — сравниваемые средние значения; пь п2 — численность соответствующих групп; — внутригрупповой средний квадрат. Для определения /ьуровня эмпирическое значение сравнивается с критическим значением, которое е свою очередь вычисляется по формуле исходя из критического значения /"-критерия для (1/Ья и с1/кг
',ф= Л <*"!).
Ограничение на применение метода Шеффе: дисперсии в сравниваемых выборках, соответствующих уровням фактора, не должны статистически достоверно различаться. Для проверки однородности дисперсии применяется критерий Ливена (Ъеуепе'з Те$1 оГ Ното§епей:у оС Уапапсек). Если дисперсии различаются, то следует воспользоваться другими критериями, которые предлагает для этого случая компьютерная программа (8Р38): ТатЬапе'к Т2, ОиппеМ'к ТЗ, Сатех-НотеН, БиппеМ'х С.
ПРИМЕР 13.2
Сравним уровни фактора для предыдущего примера 13.1. Ш а г 1. Вычислим эмпирические значения критерия /-Шеффе:
Ш а г 2. Вычислим критическое значение МПеффе.
Для р = 0,01; с!/Ьг = 2; (1/щ = 12; Ркр = 6,927; /кр = ^^(к-1) = ,/6,927-2 = 3,722 .
Ш а г 3. Определяем р-уровень значимости для каждой пары средних значений по таблице критических значений г-критерия (приложение 2):
рп > 0,05; рп < 0,01; ргг > 0,05.
Ш а г 4. Принимаем статистические решения и формулируем содержательный вывод. Гипотеза о равенстве средних значений отклоняется только для уровней 1 и 3. Влияние условий предъявления материала на продуктивность его воспроизведения проявляется в статистически достоверном различии условий 1 и 3: средняя продуктивность воспроизведения при условии 3 выше, чем при условии 1 (р < 0,01).
Метод контрастов (СоШгазк) не предполагает обязательного отклонения Н0 и позволяет оценить различия между сочетаниями средних значений для разных уровней фактора. Например, можно сравнить общее среднее значение первого и второго уровней со средним значением для третьего уровня фактора. Контраст (К) — это линейная комбинация сравниваемых средних значений, которая задается в виде полинома:
К=с,М, + с2М2+... + скМк, такая, что сх + с2 + ... + ск — 0.
ПРИМЕР
Если фактор имеет три градации и нас интересует отличие первой градации от двух других, то контрастом будет выражение:
К=2Мх-Мг- Му или К= Мх - 0,5 М2 - 0,5 М}
а коэффициенты контраста: 2-1-1=0, или 1 - 0,5 - 0,5 = 0.
Таким образом, задав вид полинома, можно оценить соотношение между средними значениями (при игнорировании какого-либо уровня ему присваивается коэффициент 0).
Проверка достоверности отличия контраста от нуля производится по формуле эмпирического значения критерия /-Шеффе:
'."-Г к
3 (22Гл
V "2 "* )
где К= с1М1 + с2М2 + ... + скМк,, с1 + с2 + ... + ск = 0.
Для определения р-уровня эмпирическое значение сравнивается с критическим значением двустороннего /-распределения (для ненаправленных альтернатив) для = = И— к1.
' Так определяется р-уровень в программе ЗРЗЗ. В других источниках предлагается более консервативный метод — вычисление критического значения по формуле Шеффе (Гласс, Стэнли, 1977), — увеличивающий значение р-уровня.
Ограничение на применение метода контрастов: дисперсии в сравниваемых выборках не должны статистически достоверно различаться. Для проверки однородности дисперсии применяется критерий Ливена (Ьеуепе'з Те$1 оГ Ното§епейу оГУапапсек). При различии дисперсий компьютерные программы (8Р88) вводят поправку в число степеней свободы и, соответственно, корректируют р-уровень значимости.
ПРИМЕР 13.3
Определим для примера 13.1 достоверность отличия уровней 1 и 2 от уровня 3. Ш а г 1. Зададим коэффициенты контраста: сх = 1; с2 = 1; с3 = —2. Ш а г 2. Определим эмпирическое значение критерия /-Шеффе:
К= Мх + М2 - 2М3 = 5 + 7 - 18 = -6,
|5 + 7-18|
6
Отметим, что если задать коэффициенты контраста 0,5; 0,5; —1 (К= —3), то величина 13 не изменится.
= 3,464 .
Ш а г 3. Определяемр-уровень, сопоставляя эмпирическое значение с табличными критическими значениями /-распределения (приложение 2) для = 12:р< 0,01.
Ш а г 4. Принимаем статистическое решение и формулируем вывод. Контраст статистически достоверно отличается от нуля. Продуктивность воспроизведения при условии 3 статистически достоверно выше, чем средняя продуктивность воспроизведения для условий 1 и 2 (р < 0,01).
Обработка на компьютере
Рассмотрим применение методов множественного сравнения с использованием данных примера 13.1. Применим метод Шеффе для парного сравнения средних и метод контрастов для сравнения третьего уровня фактора с двумя другими его уровнями.
Повторим все операции, которые мы совершали для проведения однофак- торного АМОУА:
Для парного сравнения средних в окне диалога Опе \уау АЫОУА дополнительно нажимаем кнопку Роз* Нос... (Постфактум, то есть после отклонения Н0). В открывшемся окне диалога отмечаем флажком необходимый нам метод сравнения: ЗсЬеГГе (Шеффе) (при желании можно было бы выбрать и другие методы, в частности те, применение которых не требует однородности дисперсии сравниваемых выборок). Нажимаем СопНпие (Продолжить).
Для применения метода контрастов в окне диалога Опе ^ау АЫОУА дополнительно нажимаем кнопку Соп(га$1$... (Контрасты...). В открывшемся окне диалога отмечаем флажком Ро1упопиа1 (Полином) и последовательно задаем коэффициенты полинома для контраста. Последовательность коэффициентов должна соответствовать последовательности уровней фактора (от меньшего к большему). Сумма коэффициентов должна быть равна 0. Вводим в окне СоеШс1еп18 (Коэффициенты) сначала 1, нажимаем Айй (Добавить), затем 1, снова Айй, затем — 2 и Айй. В окне ниже увидим значения коэффициентов и ниже — их сумму (СоеШс1еп1 То1а1: 0.00). Если сумма равна 0, значит коэффициенты назначены верно. После этого можно составить другой контраст, для чего следует нажать клавишу Ыех1 (Следующий). После назначения контрастов нажимаем Сопипие (Продолжить). Нажимаем ОК.
3. Получаем результаты.
Дополнительно к тем результатам, которые были описаны для одномерного АЫОУА, получим следующие результаты:
А) Коэффициенты контраста:
СопЪгавЪ СоеЕЕ1с1епЬ8
СопЬгавЬ |
Р1 |
||
1.00 |
2.00 |
3.00 |
|
1 |
1 |
1 |
-2 |
В) Результаты статистической проверки контраста:
СопЪгааЪ ТеаЬа
СопЬгазЬ |
\/а1ие оЕ СопСгазЬ |
зьа. Еггог |
31д.(2- ЬаНей) |
||||
УОЗРК |
Аззите едиа1 Vа^^апсез |
1 |
-6.0000 |
1.73205 |
-3 .464 |
12 |
.005 |
Боез поЬ |
1 |
-6.0000 |
1.73205 |
-3.464 |
8.000 |
.009 |
|
аззите едиа1 Vа^^апсез |
Столбец Соп^газЬ показывает номер контраста (1): их будет столько, сколько было введено (в данном случае он один). Уа1ие о :Е СопЬгазЬ (Значение контраста) — разность, статистическая значимость которой проверяется. ЗЬй. Еггог — стандартная ошибка контраста, ь — значение/-критерия, — число степеней свободы, 81д. — р-уровень значимости контраста. Первая строчка таблицы дает результаты контраста для случая, когда дисперсии сравниваемых групп (уровней) однородны, а вторая — для случая неоднородности дисперсий по критерию Ливена.
Получены те же результаты, что и при вычислении «вручную» (пример 13.3). По результатам можно сделать вывод о статистически достоверно более высокой продуктивности воспроизведения слов при третьем условии, по сравнению с двумя другими условиями.
С) Результаты парных сравнений средних значений по методу Шеффе:
Розь Нос ТезСз Ми1Ъ1р1е Сотраг1зопз БерепдепС уаггаЫе: УОЗРК ЗсЬеЕЕе
(I) Р1 |
СП Р1 |
Меап 01€Еегепсе (1-а) |
ЗСсЗ. Еггог |
31д. |
95% СопЛйепсе 1п(;егуа1 |
|
Ьомег Воипй |
Цррег Воипй |
|||||
1. 00 |
2.00 |
-2.0000 |
1.00000 |
.178 |
-4.7876 |
.7876 |
3 .00 |
-4.0000 ( *) |
1.00000 |
.006 |
-6.7876 |
-1.2124 |
|
2.00 |
1.00 |
2.0000 |
1.00000 |
.178 |
-.7876 |
4.7876 |
3 .00 |
-2.0000 |
1.00000 |
. 178 |
-4.7876 |
.7876 |
|
3 . 00 |
1.00 |
4.0000(*) |
1.00000 |
. 006 |
1.2124 |
6. 7876 |
2 . 00 |
2.0000 |
1.00000 |
. 178 |
-.7876 |
4.7876 |
* ТНе теап йл-^Еегепсе 1з 51дпд.51сап(: аЬ (:Ье .05 1еVе1.
Так же, как и для вычислений «вручную» (пример 13.2), получено статистически значимое различие между уровнями 1 и 3 (51д. = 0,006).
Дополнительно выдаются результаты проверки однородности дисперсии для сравниваемых выборок:
Нотодепеоиз ЗиЪзеЬз
УОЗРК
ЗсЪеЕЕе
Р1 |
N |
ЗиЬзеЬ {ог а1рЬа = .05 |
|
1 |
2 |
||
1. 00 |
5 |
5.0000 |
|
2 . 00 |
5 |
7.0000 |
7.0000 |
3 .00 |
5 |
9.0000 |
|
51д. |
.178 |
.178 |
Меапз Сог дгоирз 1п Ьотодепеоиз зиЬзеЬз аге <Нзр1ауе(3. а Чзез Нагшоп1с Меап Зашр1е 31ге = 5.000.
Результаты демонстрируют отсутствие статистически достоверных различий дисперсий 1 и 2 (31д. = 0 ,17 8), 2 и З(31д. = 0 ,17 8) выборок, что убеждает в корректности парных сравнений средних значений.
МНОГОФАКТОРНЫЙ АШУА
Многофакторный АЫОУА предназначен для изучения влияния нескольких факторов (независимых переменных) на зависимую переменную и часто обозначается в соответствии с количеством факторов и числом их градаций. Например, обозначение АЫОУА 3x2x2 свидетельствует о трехфакторном АЫОУА (число градаций: первого фактора — 3, второго фактора — 2, третьего фактора — 2), который применяется для сравнения 12 групп (условий) (так как 3x2x2 = 12).
Принципиально этот метод не отличается от однофакторного АЫОУА. Однако он позволяет оценивать не только влияние (главные эффекты) каждого фактора в отдельности, но и взаимодействие факторов: зависимость влияния одних факторов от уровней других факторов. Возможность изучать взаимодействие факторов — главное преимущество многофакторного АЫОУА, которое позволяет получать зачастую наиболее интересные результаты исследования.
С целью облегчения изложения материала в качестве основного варианта многофакторного АЫОУА мы сначала рассмотрим двухфакторный его вариант (2-\Уау АЫОУА), а затем сделаем необходимые дополнения в отношении большего количества факторов.
Структура исходных данных (2-факторный АЫОУА). Для каждого объекта (испытуемого) выборки измерено значение зависимой переменной (К), а также определена его принадлежность к одной из градаций (уровней) одного фактора (Л',) и к одной из градаций (уровней) другого фактора (Хг). Таблица исходных данных для компьютерной обработки включает две номинативные переменные, соответствующие факторам, и одну метрическую (зависимую) переменную:
№ объектов |
Х{ (Фактор 1) |
Хг (Фактор 2) |
/(Зависимая переменная) |
1 |
1 |
2 |
8 |
2 |
3 |
2 |
9 |
3 |
2 |
1 |
4 |
4 |
1 |
1 |
5 |
N |
2 |
2 |
6 |
Модель для данных может быть представлена в виде дисперсионного комплекса — таблицы, строки которой соответствуют градациям (уровням) одного фактора: 1, 2, ..., /, ..., /с; а столбцы — уровням другого фактора: 1, 2,...,],..., /. Количество ячеек дисперсионного комплекса равно кх1 и соответствует количеству разных групп объектов (испытуемых). Каждая ячейка с номером // характеризуется своим сочетанием уровней факторов, численностью объектов щ и средним значением зависимой переменной Му. Например, дисперсионный комплекс для АЫОУА 2x3:
Фактор А |
Фактор В |
|||
1 |
2 |
3 |
||
1 |
Мп |
Мп |
Л/13 |
Мм |
2 |
Мп |
мп |
МЛ2 |
|
Мм |
Мщ |
М„1 |
М |
Математическая модель двухфакторного АЫОУА, как и в однофакторпом случае, предполагает выделение двух основных частей вариации зависимой переменной: внутригрупповой, обусловленной случайными причинами, и межгрупповой, обусловленной влиянием факторов. В межгрупповой изменчивости, в свою очередь, выделяются три ее составляющие:
Соответственно, двухфакторный АМОУА включает в себя проверку трех гипотез: а) о главном эффекте 1-го фактора; б) о главном эффекте 2-го фактора; в) о взаимодействии факторов.
Проблема взаимодействия факторов, которая обеспечивает уникальность и незаменимость многофакторного АМОУА, заслуживает отдельного рассмотрения. Понятие взаимодействия двух независимых факторов было введено основателем дисперсионного анализа Р. Фишером для обозначения ситуации, когда влияние одного фактора на зависимую переменную проявляется по-разному на разных уровнях другого фактора.
ПРИМЕР 13.4 (Солсо Р., МакЛин М. К., с. 58-59)
Студентам колледжа предложили написать сочинение в поддержку закона о самоуправлении, противниками которого все они являлись. Испытуемым либо давали задание написать такое сочинение (условие без выбора), либо предлагали самим выбирать — писать или не писать (условие с выбором) (фактор А: 2 уровня). Кроме того, половине испытуемых в каждой из групп платили по 0,5$, а другой половине — 2,5$ за написание этого сочинения (фактор В: 2 уровня). В каждую из 4-х групп случайно отбиралось по 10 студентов. Зависимой переменной являлась степень изменения отношения студентов к закону о самоуправлении после написания сочинения. Средние значения изменения отношения для различных групп:
Фактор А |
Фактор В |
Средние |
|
0,5$ (1) |
2,5$ (2) |
||
Нет выбора (1) |
-0,05 |
+0,63 |
0,29 |
Свободный выбор (2) |
+ 1,25 |
-0,07 |
0,59 |
Средние: |
0,6 |
0,28 |
0,44 |
Результаты (рис. 13.1) демонстрируют взаимодействие факторов: размер вознаграждения (фактор В) по-разному влияет на изменение отношения — в зависимости от наличия или отсутствия свободного выбора (фактор А).
В условиях отсутствия выбора отношение испытуемых к закону о самоуправлении улучшилось в случае большего вознаграждения; в условиях же свободного выбора наблюдалась обратная картина: более хорошее отношение продемонстрировали те, кто получил меньшее вознаграждение.
ПРИМЕР 13.5
часть п. методы статистического вывода: проверка гипотез 1,4
Рис. 13.1. График средних значений изменения отношения к закону о самоуправлении (к данным примера 13.4)
1,2
1
0,8 0.6 0,4 0,2 0 -0,2
Предположим, изучается влияние на успешность группового решения задачи численности группы и наличия или отсутствия лидера в группе. Зависимая переменная — время решения задачи в минутах. Фактор А — размер группы, три градации: 1 — 2—3 человека; 2 — 5—7 человек; 3 — 10—15 человек. Фактор В — наличие лидера: 1 — есть; 2 — нет. В качестве объектов выступают группы. В зависимости от стиля лидерства, сложности задания и других причин, которые не учитываются, можно было бы получить разные эффекты взаимодействия факторов численности группы и наличия лидерства (рис. 13.2). График 1 демонстрирует сильное взаимодействие факторов (группы большей численности более эффективны, если в них есть лидер, а группы малой численности — при отсутствии лидера), а график 3 — более слабое взаимодействие (наличие лидера играет роль лишь в группах большой численности). Графики 2 и 4 соответствуют ситуации отсутствия взаимодействия.
Рис. 13.2. Графики средних значений успешности группового решения задачи
(к данным примера 13.5)
Приведенные примеры демонстрируют эффективность визуального анализа графиков средних значений: если линии, соответствующие разным уровням одного из факторов, не параллельны, то можно предполагать наличие взаимодействия факторов. Однако окончательное заключение об этом можно сделать только при статистическом подтверждении гипотезы о взаимодействии по результатам АМОУА. Таким образом, графики средних значений особенно полезны для интерпретации обнаруженного статистически достоверного взаимодействия факторов.
Исходные предположения многофакторного АЫОУА\ распределение зависимой переменной в сравниваемых генеральных совокупностях (соответствующих ячейкам дисперсионнго комплекса) характеризуется нормальным законом и одинаковыми дисперсиями. Выборки в каждой ячейке являются случайными и независимыми.
Ограничения-, если выборки (ячейки) заметно различаются по численности и их дисперсии различаются статистически достоверно, то метод неприменим. Число наблюдений в каждой ячейке не должно быть меньше 2 (желательно— не менее 5). Проверка допустимости применения АИОУА сводится к про
верке однородности дисперсии в сравниваемых выборках в случае, если они заметно различаются по численности. Для проверки однородности дисперсии применяется критерий Ливена (Ьеуепе'з Те$1 оГНото§епеИу оГУапапсез).
Дополнительно возможны множественные сравнения средних значений, позволяющие сделать вывод о том, как различаются друг от друга средние значения, соответствующие разным градациям факторов.
Общая схема двух- (и более) факторного АЫОУА принципиально не отличается от однофакторного случая и определяется выделением в общей изменчивости зависимой переменной (55ю:) ее внутригрупповой (случайной, 55щ) и межгрупповой (факторной, 55%) составляющих:
= + ЭДг.Г
Отличие заключается в выделении дополнительных составляющих межгрупповой (факторной) изменчивости в соответствии с проверяемыми гипотезами. Для двухфакторного случая:
— 55А + 88л
где 55Л, 55в — суммы квадратов для факторов А и В, а 55АВ — сумма квадратов для взаимодействия факторов. Соответственно, для каждого источника изменчивости далее вычисляются степени свободы и средние квадраты, вычисляются ^-отношения для проверяемых гипотез и определяются />-уровни значимости.
Последовательность вычислений основных показателей для двухфакторного АЫОУА рассмотрим на упрощенном примере — при равной численности сравниваемых выборок (объектов в ячейках). Для случая с неравной численностью наблюдений в ячейках логика и общая последовательность вычислений не меняются, хотя сами вычисления и становятся более громоздкими.
Фактор А |
Фактор В |
|||
1 |
2 |
3 |
||
1 |
Ми |
Мп |
Л/,з |
Мм |
2 |
Л/21 |
мгг |
мг 3 |
МА2 |
МВ] |
Мю |
м |
Численность каждой ячейки равна п, общее число наблюдений — 6п = N.
Напомним, что двухфакторный АЫОУА проверяет 3 статистические гипотезы: а) о главном эффекте фактора А (о различии МАХ и МЛ2); б) о главном эффекте фактора В (о различии Мт, Мщ и М&У, в) о взаимодействии факторов А и В (влияние фактора А различается для разных уровней фактора В, и наоборот).
Межгрупповая (55%) и внутригрупповая (55щ) суммы квадратов вычисляются как составные части общей суммы квадратов (55,01):
55101^(х.,-М)2 .
/ = 1
1 = 1] = 1
где к — число уровней фактора А\ I — число уровней фактора В\ Мц — среднее значение для ячейки у.
Отношение межгрупповой и общей суммы квадратов — коэффициент детерминации. Как и в однофакторном случае, он показывает долю общей дисперсии зависимой переменной, которая обусловлена совокупным влиянием факторов (факторной моделью):
К1
та!
55,
Чем больше этот показатель, тем больше общая дисперсия зависимой переменной объясняется влиянием изучаемых факторов. Межгрупповая сумма квадратов состоит из трех составляющих ее сумм квадратов: для фактора А, для фактора В, для взаимодействия факторов А и В:
= 3 п[(МА1-М)2+(МА2-М)2},
55ь„= + 55в + 55АИ.
Суммы квадратов для фактора А {55^ и фактора В (55в)\ /=1 ' ;=1
1 к
■м
= 2п[(Мв1-М)2 +(Мв2 -М)2 +(МЮ-М)2\
( = 1
Сумма квадратов дм взаимодействия факторов А и В — это остаток межгрупповой суммы квадратов за вычетом сумм квадратов факторов А и В:
55а д = 55^ — 55а — 55/).
Числа степеней свободы для сумм квадратов:
для общей: с1/ш = И- 1;
для фактора А: й/А = к — 1;
для фактора В: й/в = I— !;
для взаимодействия факторов: фАВ = й/Ахс1/в,
для внутригрупповой: й/щ = й/т - й/А - й/в - й/АН = N- кх /;
для общей межгрупповой (факторной): с1/ь, = кх 1—1.
Средние квадраты вычисляются делением сумм квадратов на соответствующие им числа степеней свободы:
55л
, ; М5ЛВ
55и
сс
а/А АВ а/АВ С,
Вычисляются эмпирические значения Р-отношения для каждой из трех проверяемых гипотез:
А М5Щ' й М8Щ' АВ МЗ^
Дополнительно можно вычислить ./-отношение для общей факторной модели, которое позволит определить статистическую значимость совокупного влияния факторов:
р * "
Для определения р-уровня значимости каждого из ./-отношения вычисленное эмпирическое значение сравнивается с критическими (табличными) значениями для степеней свободы, соответствующих числителю и знаменателю /"-отношения.
ПРИМЕР 13.6
Предположим, изучается влияние численности группы и наличия или отсутствия лидера в группе на успешность группового решения задачи. В одной из серий исследования получены следующие результаты:
Время решения тестовой задачи группами разной численности в зависимости от наличия или отсутствия лидера
Группы без лидера: |
Группы с лидером: |
||||
Малая (1) |
Средняя (2) |
Большая (3) |
Малая (1) |
Средняя (2) |
Большая (3) |
4 |
9 |
8 |
9 |
10 |
7 |
8 |
5 |
8 |
11 |
7 |
5 |
5 |
7 |
9 |
10 |
8 |
4 |
7 |
6 |
6 |
8 |
8 |
6 |
6 |
8 |
9 |
12 |
7 |
8 |
Ми = 6 |
Мп = 1 |
Мп = 8 |
М21= 10 |
Мгг = 8 |
Мп = 6 |
В качестве объектов выступают группы. Зависимая переменная — время решения задачи в минутах. Фактор А — наличие лидера: 1 — нет; 2 — есть. Фактор В — размер группы, три градации: 1 — 2-3 человека; 2 — 5-7 человек; 3 — 10-15 человек. Проверим гипотезы о влиянии факторов и их взаимодействия на уровне а = 0,05.
Ш а г 1. Составим дисперсионный комплекс и подсчитаем средние значения:
Фактор А |
Фактор В |
|||
1 |
2 |
3 |
||
1 |
Ми = 6 |
Л/п = 7 |
М„ = 8 |
|
2 |
Мп = 10 |
М22= 8 |
М„ = 6 |
М,2 = 8 |
Мт = 8 |
Мв= 7,5 |
Мй = 7 |
М= 7,5 |
Ш а г 2. Вычислим межгрупповую (55%) и внутригрупповую (53^) суммы квадратов как составные части общей суммы квадратов (^б1,,,,):
30
Ю1 - ~~ М)г = 109,5 , 1 = 1
я?* = X Ь- м)г=5 [(6 - 7'5>2+(7 - 7'5>2+■■■]=57'5 -
|'=1у' = 1
55 = 55,, , - 55. = 109,5 - 57,5 = 52.
^ ша! 0% ' 5
Доля общей изменчивости, объясняемая данной факторной моделью:
Л2 =^ = ^- = 0,525.
55ю, 109,5
Ш а г 3. Вычислим суммы квадратов для фактора А (55л), фактора В (55г) и взаимодействия факторов (55лв):
55, =Ъп[(Млх-М)2 + (МА2 -М)2] = 15[(7-7,5)2 + (8-7,5)2] = 7,5 = 2л [(А/я, - М)2 + (Мвг - М)2 + (МЮ- М)2] = 10[(8 -7,5)2 + (7,5-7,5)2 + (7 - 7,5)2] = 5;
88лв = 55^ - 55л - 55г = 57,5 - 7,5 - 5 = 45.
Ш а г 4. Определим степени свободы для вычисленных сумм квадратов: для общей: #„, = ./V - 1 = 30 - 1 = 29; для фактора Л:#,=А:-1 = 2-1 = 1; для фактора В\ #в = / — 1 = 3 — 1 = 2; для взаимодействия факторов: с1/лв = #г#в — 1'2 = 2; для внутригрупповой: = #„, - - #, - ё/АВ = N - к ■ / = 30 - 6 = 24; для общей межгрупповой (факторной): с1/Ье = &•/—1=6-1 = 5.
111 а г 5. Вычисляем средние квадраты:
МЗЛ = ^ = ^ = 7,5; М3„ = = - = 2,5; МЗЛВ = ^ = — = 22,5;
М5А |
7,5 |
мзщ |
2,167 |
М5В |
2,5 |
2,167 |
|
_мзАВ |
22,5 |
2,167 |
|
11,5 |
|
2,167 |
1 2 <1/ав 2
4С 24 48 4Г* 5
Ш а г 6. Вычисляем эмпирические значения /-отношения:
_ Л/5^ 7,5
/ла
= 5,31.
111 а г 7. Определяем р-уровень значимости для каждого из /"-отношений. Для этого сравниваем эмпирические значения /-отношения с критическими (табличными) для соответствующих чисел степеней свободы по таблице критических значений /-распределения для проверки направленных альтернатив (приложение 3).
РА= 3,46; #1=1; #=24; /0,05 = 4,2; />>0,05 /г=1,15; # = 2; #=24; /0,05 = 3,4; р> 0,05
РАВ = 10,39; <й = 2; #2 = 24; о,=5,61; р < 0,01 7^=5,31; ^ = 5; #=24; Рт = 3,90; р < 0,01
Представим результаты в виде таблицы:
Источник изменчивости |
Сумма квадратов (55) |
4Г |
Средний квадрат (М5) |
Р |
р-уровень |
Модельная (факторная) |
57,5 |
5 |
11,5 |
5,31 |
<0,01 |
Фактор А |
7,5 |
1 |
7,5 |
3,46 |
>0,05 |
Фактор В |
5 |
2 |
2,5 |
1,15 |
>0,05 |
АхВ |
45 |
2 |
22,5 |
10,39 |
<0,01 |
Ошибка |
52 |
24 |
2,167 |
— |
— |
Общая |
109,5 |
29 |
— |
— |
Я2 = 0,525
Ш а г 8. Принимаем статистические решения и формулируем содержательные выводы. Н0 на уровне а = 0,05 отклоняется в отношении взаимодействия факторов и общего влияния факторов. Обнаружено статистически достоверное совокупное влияние численности группы и наличия (отсутствия) лидера на успешность группового решения задачи (р < 0,01). Факторная модель объясняет 52,5% общей доли изменчивости времени решения задачи. Статистически достоверным является взаимодействие фактора лидерства и численности группы (р< 0,01). График средних значений позволяет дать интерпретацию обнаруженного взаимодействия:
11
10
Чем больше численность группы, тем быстрее решается задача при наличии лидера; без лидера успешнее работают группы меньшей численности.
9 8 7 6 5
АЫОУА с количеством факторов больше двух принципиально не отличается от двухфакторного варианта. Специфика АЫОУА с числом факторов больше двух заключается в наличии проблемы взаимодействия более чем двух факторов. В двухфакторном случае анализируется взаимодействие первого порядка (двух факторов). А в трехфакторном АЫОУА, с факторами А, В и С, помимо двухфакторных взаимодействий (первого порядка) АхВ, АхС и ВхС необходимо рассматривать и трехфакторное взаимодействие второго порядка: АхВхС.
ПРИМЕР 13.7
Предположим, при изучении влияния численности группы и наличия или отсутствия в ней лидера на успешность решения задачи введен еще один фактор — тип задания (фактор А — наличие лидера, две градации: 1 — нет лидера, 2 — есть лидер; фактор В— численность группы, три градации: 1 — 2—3 человека, 2 — 5—7 человек, 3— 10-15 человек; фактор С—тип задания, две градации: 1 — групповое задание, 2 — индивидуальное задание). Графики средних значений (рис. 13.3) демонстрируют трехфакторное взаимодействие (второго порядка): взаимодействие факторов А и В проявляется по-разному в зависимости от градаций фактора С. Обратите внимание, что это взаимодействие допускает три эквивалентные формы интерпретации: а) тип задания по-разному влияет на успешность в зависимости от численности группы и наличия или отсутствия лидера; б) численность группы по-разному влияет на успешность решения задачи в зависимости от типа задания и наличия или отсутствия лидера в группе; в) наличие или отсутствие лидера по-разному влияет на успешность решения задачи в зависимости от численности группы и типа задания. Обратите также внимание на то, насколько сложна более детальная интерпретация взаимодействия второго порядка, по сравнению с интерпретацией взаимодействия первого порядка.
Фактор С (1) Фактор С (2)
Фактор В Фактор В
Рис. 13.3. Взаимодействие факторов А и В на разных уровнях фактора С
Пример демонстрирует трудности, связанные с интерпретацией трехфак- торного взаимодействия. Интерпретация взаимодействий более высокого порядка еще сложнее, если вообще возможна. Ситуацию осложняет и то, что количество взаимодействий с увеличением числа факторов растет в геометрической прогрессии: количество проверяемых гипотез в АМОУА — о главных эффектах и всех взаимодействиях факторов выражается формулой:
К=2р-\,
где Р— число факторов, К— количество проверяемых гипотез. Так, если двух - факторный АИОУА предполагает проверку трех гипотез, то трехфакторный — уже семи, а четырехфакторный — 15-ти. Поэтому без острой необходимости нежелательно включать в АЫОУА более трех факторов.
Обработка на компьютере
Рассмотрим применение однофакторного АЫОУА на примере изучения влияния численности группы и наличия или отсутствия лидера в группе на успешность группового решения задачи (данные примера 13.6).
Исходные данные для анализа введены в таблицу (Ба*а ЕсШог) в следующем виде:
(:1ше |
Еас(:ог_а |
Еас(:ог_Ь |
|
1 |
4 |
1 |
1 |
2 |
8 |
1 |
1 |
3 |
5 |
1 |
1 |
29 |
6 |
2 |
3 |
30 |
8 |
2 |
3 |
Каждой строке соответствует одна группа; — зависимая переменная (время); Еас*:ог_а — наличие лидера (1 — нет, 2 — есть); €асЬог_Ь — размер группы (1 — 2-3 человека, 2 — 5-7 человек, 3 — 10-15 человек).
(Как и для однофакторного АЫОУА, можно было бы воспользоваться функциями Роз* Нос (Множественные сравнения) и Соп1га$1$ (Контрасты), но мы этого сейчас не делаем.) Нажимаем ОК.
А) Описательные статистики:
Безсг1р(:1уе ЗСаСхаЫсз БервгиЗвпй Уаг1аЫе: Т1МЕ
РАСТОК_А |
РАСТОН_В |
Меап |
зс<а. |
Оеу1а1:1оп |
N |
|
1.00 |
1.00 |
6. |
0000 |
1 |
.58114 |
5 |
2.00 |
7 |
0000 |
1 |
.58114 |
5 |
|
3.00 |
8. |
0000 |
1 |
.22474 |
5 |
|
ТоСа1 |
7 |
0000 |
1 |
.60357 |
15 |
|
2.00 |
1.00 |
10 |
.0000 |
1 |
.58114 |
5 |
2.00 |
8. |
0000 |
1 |
.22474 |
5 |
|
3.00 |
6. |
0000 |
1 |
.58114 |
5 |
|
ТоЬа1 |
8 |
0000 |
2 |
17124 |
15 |
|
ТоЬа! |
1.00 |
8 |
0000 |
2 |
.58199 |
10 |
2.00 |
7 |
5000 |
1 |
.43372 |
10 |
|
3.00 |
7 |
0000 |
1 |
.69967 |
10 |
|
ТоСа! |
7 |
5000 |
1 |
.94316 |
30 |
В) Тест однородности дисперсии:
Ьеуепе' з ТезЬ оЕ ЕдиаИСу о1 Еггог Уаг1апсез(а) ЕерепйеШ: Уаг1аЫе: Т1МЕ
Р |
сШ |
ЙЕ2 |
31д. |
.305 |
5 |
24 |
. 905 |
Тез(;з (;Ье пи11 Ьуро(;Ьез13 (:Ьа(: (;Ье еггог уаг1апсе о!: (;Ье йерепйеп!; гаг1аЫе 13 едиа1 асгозз дгоирз.
а 0ез1дп: 1пСегсерС+РАСТОК_А+РАСТОК_В+РАСТОК_А * РАСТОК_В
По критерию Ливена статистически достоверных различий между дисперси- ши не обнаружено. Следовательно, применение А1ЧОУА является корректным. С) Основные результаты дисперсионного анализа:
ТезЬз о!: Ве(:мееп-ЗиЬэес(:з ЕЕЕес&з Еереп&епъ. Уаг1аЫе: Т1МЕ
Зоигсе |
Туре III Зиш о!: Здиагез |
СИ |
Меап |
Здиаге |
р |
31д. |
||
Соггес(:ей Мойе1 |
57.500(а) |
5 |
11 |
. 500 |
5 |
.308 |
. 002 |
|
1п(;егсер(; |
1687 |
500 |
1 |
1687 |
. 500 |
778 |
.846 |
. 000 |
расток_а |
7 |
500 |
1 |
7 |
. 500 |
3 |
.462 |
. 075 |
расток_в |
5 |
000 |
2 |
2 |
. 500 |
1 |
. 154 |
.332 |
расток_а * расток_в |
45 |
000 |
2 |
22 |
. 500 |
10 |
.385 |
.001 |
еггог |
52 |
000 |
24 |
2 |
.167 |
|||
ТоСа1 |
1797 |
000 |
30 |
|||||
СоггесЬей ТоСа1 |
109 |
500 |
29 |
а К Здиагей = .525 (Ай^изСей К Здиагей = .426)
Результаты соответствуют тем, которые были получены при расчетах «вручную». Факторная модель (СоггесЬесЗ. мос1е1) статистически достоверна и объясняет 52,5% общей дисперсии, о чем свидетельствует коэффициент детерминации (к Здиагей = . 52 5). Влияние факторов Л и 5статистически не подтверждается, но статистически достоверно их взаимодействие (31д. =0.001).
Б) График средних значений:
Рго^Ие Р1оЪв
ЕзИтагёс! Магдта! Меапз о! Пте
РАСТОВ_В
График средних значений существенно облегчает интерпретацию статистически достоверных результатов АЫОУА.
АШУА С ПОВТОРНЫМИ ИЗМЕРЕНИЯМИ
Рассмотренные ранее варианты АЫОУА применяются, когда разным градациям изучаемых факторов соответствуют разные группы объектов (испытуемых). Однако часто используются планы исследования, когда разным градациям фактора соответствует одна и та же группа объектов (зависимые выборки). В соответствии с этим различают межгрупповые и внутригруппо- вые факторы. Разным градациям межгруппового фактора (Ве1у/ееп-$иЪ]ес1 РасЮг) соответствуют разные группы объектов, а разным градациям внутри- группового фактора (\УкЫп-$иЪ]ес1 РасЮг) соответствует одна и та же группа объектов (или зависимые выборки).
АЫОУА с повторными измерениями (Кереа1ей Меазигез АЫОУА или СЬМ КереШей Меазигез) применяется, когда по крайней мере один из факторов изменяется по внутригрупповому плану, то есть разным градациям этого фактора соответствует одна и та же выборка объектов (испытуемых). Конечно, эти выборки можно рассматривать как независимые и применять обычный вариант АМОУА. Но АМОУА с повторными измерениями имеет в этом случае существенное преимущество: он позволяет исключить из общей дисперсии данных ту ее часть, которая обусловлена индивидуальными различиями в уровне зависимой переменной. За счет этого метод оказывается более чувствительным к влиянию изучаемых факторов и позволяет с большей надежностью обнаруживать их эффекты.
Таким образом, специфика АМОУА с повторными измерениями заключается в том, что из остаточной изменчивости (внутригрупповой) вычитается компонент, обусловленный индивидуальными различиями. Тем самым уменьшается дисперсия ошибки факторной модели и повышается чувствительность метода к воздействию факторов на зависимую переменную. В остальном, в частности — в отношении проверяемых гипотез, данный вариант АМОУА сохраняет сходство с рассмотренными выше методами АМОУА.
Структура исходных данных, градациям внутригруппового фактора соответствует неоднократное измерение зависимой переменной для одной и той же группы объектов. Допускается наличие межгрупповых факторов, а также нескольких внутригрупповых факторов.
ПРИМЕР
Изучалось влияние интонации на запоминание слов. В качестве материала использовался список из 24 не связанных по смыслу слов одинаковой длины и частоты встречаемости. Одной группе испытуемых весь список читался с неизменной интонацией, а другой — с интонационным выделением серединной восьмерки слов. Зависимой переменной выступало количество правильно воспроизведенных испытуемыми слов: из первых восьми слов ряда, из серединной и из последней восьмерки слов. Предполагалось, что во второй группе будет менее выражен эффект конца и начала ряда, то есть лучше запомнится интонационно выделенная середина ряда. Таким образом, план эксперимента включал 2 фактора: фактор А (внутригрупповой) — часть ряда (три градации); фактор В (межгрупповой) — интонационное выделение (две градации).
Таблица исходных данных:
Испытуемый № |
Фактор А (часть ряда) |
Фактор В |
||
начало |
середина |
конец |
(группа) |
|
1 |
4 |
5 |
6 |
2 |
2 |
6 |
3 |
5 |
1 |
3 |
3 |
6 |
5 |
2 |
N |
5 |
5 |
7 |
1 |
Так же, как и в случае двух межгрупповых факторов, АМОУА с одним межгрупповым и одним внутригрупповым факторами позволяет проверить три гипотезы: а) эффект внутригруппового фактора А; б) эффект межгруппового фактора В; в) эффект взаимодействия факторов Ах В.
Исходные предположения и, соответственно, ограничения на применение АЫОУА с повторными измерениями зависят от того, какая из двух моделей используется: одномерная или многомерная. Одномерная модель основана на предположении, что каждому уровню внутригруппового фактора соответствует повторное измерение одной и той же зависимой переменной (следовательно, эти измерения положительно коррелируют). Многомерная модель свободна от допущения о коррелированности измерений зависимой переменной. Общим для той и другой модели является исходное допущение о том, что множество измерений зависимой переменной для каждого испытуемого является выборкой из многомерного нормального распределения.
Одномерный подход (ШШпа(е арргоасИ) основан на применении /"-отношения, свойственного и другим методам АЫОУА. Однако его применение ограничено так называемым допущением о сферичности ковариационно-дисперсионной матрицы. Это допущение подразумевает, во-первых, что дисперсии зависимой переменной для разных уровней внутригруппового фактора не отличаются; во-вторых, корреляции между повторными измерениями есть, и они положительны. Для проверки этого предположения в компьютерных программах используется тест сферичности ковариационно-дисперсионной матрицы Моучли (МаисЫу'з Тез1 о/БркепсИу). Если тест Моучли показывает статистически достоверный результат, то предположение о сферичности считается ошибочным, и одномерный подход неприменим. Однако на небольших выборках тест сферичности Моучли имет малую чувствительность, а для больших выборок даже небольшие отклонения от сферичности дают статистически значимые результаты. При нарушении допущения о сферичности компьютерные программы предлагают специальную поправку (эпсилон-коррекцию, ЕрзИоп Соггес1ес[) числа степеней свободы и, соответственно, уровня значимости.
Если предположение о сферичности не отклоняется (результат теста Моучли статистически не достоверен), то более предпочтительным является одномерный подход, как более чувствительный к действию внутригруппового фактора. Если предположение о сферичности отклоняется (результат теста Моучли статистически достоверен), то можно воспользоваться поправками, предлагаемыми компьютерной программой (эпсилон-коррекция). Но более корректно применить многомерный подход.
Многомерный подход (МиШ\апа1е арргоасИ) свободен от предположения о сферичности, свойственного одномерному подходу. В этом случае используется не /"-критерий, а многомерные тесты, наиболее распространенные из которых «След Пиллая» (РН1а1'з Тгасе) и «Х-Вилкса»' (Ш1кз'ЬатЬёа). При использовании межгрупповых факторов дополнительно проверяется допущение об идентичности ковариационно-дисперсионных матриц, соответствующих разным уровням межгрупповых факторов. Это допущение аналогично требованию однородности дисперсии в АЫОУА с межгрупповыми факторами, но для
' Читается как «лямбда Вилкса».
его проверки в АМОУА с повторными измерениями обычно используется М-тест Бокса (Вох'з М-1ез1). Если Л/-тест Бокса показывает статистически значимый результат, то дисперсионно-ковариационные матрицы не идентичны, и применение многомерного подхода в этом случае не корректно.
Последовательность АМОУА с повторными измерениями рассмотрим сначала на примере с одним внутригрупповым фактором. Общая изменчивость зависимой переменной (85Ша1) в этом случае раскладывается натри составляющие:
$5,0,01= 55р + 55/ + 55ег,
где 88/- — факторная изменчивость (между уровнями); — межиндивиду- альиая изменчивость (между средними для каждого объекта — испытуемого); 55ег— остаточная изменчивость (ошибка).
ПРИМЕР 13.8
Предположим, изучается эффективность воспроизведения предъявленного ряда из 24 не связанных по смыслу слов. Исследователя интересует, будет ли в этом случае проявляться эффект начала и конца ряда. Соответственно, для каждого испытуемого подсчитывалась частота воспроизведения слов из первой, второй и третьей части ряда. Всего в эксперименте участвовало 5 человек. Исходные данные представлены в таблице:
Испытуемый № |
Фактор А (часть ряда) |
Средние |
||
начало (1) |
середина (2) |
конец (3) |
||
1 |
4 |
3 |
6 |
А/, = 4,33 |
2 |
6 |
4 |
5 |
М2 = 5,00 |
3 |
5 |
5 |
7 |
Мъ = 5,67 |
4 |
7 |
5 |
7 |
М4 = 6,33 |
5 |
3 |
3 |
5 |
М5 = 3,67 |
Средние |
МА1 = 5 |
МА2 = 4 |
МА 3 = 6 |
М= 5 |
Число объектов (испытуемых): 5.
Число градаций внутригруппового фактора Л: к = 3.
Шаг 1. Подсчитываем общую сумму квадратов.
= %(*/ - М)2 = (4 -5)2 + (3- 5)2 + (6 - 5)2 + (6- 5)2 + (4- 5)2 + (5 - 5)2 +... = 28.
/
Ш а г 2. Подсчитываем факторную сумму квадратов — между уровнями. 83 г = Л^х, -М)2 = 5- [(5-5)2 +(4-5)2 +(6-5)2]= 10.
Ш а г 3. Подсчитываем межиндивидуальную сумму квадратов.
= к (х,. - М )2 = 3 • [ (4,33 - 5)2 + (5 - 5)2 + (5,67 - 5)2 + (6,33 - 5)2 + (3,67 - 5)2 ]= 13,33. Ш а г 4. Подсчитываем остаточную сумму квадратов.
88ег = 38ша1 - - = 28 -10 -13,33 = 4,67.
Ш а г 7. Вычисляем эмпирическое значение /'-отношения:
М5Р
М5„ 0,583
Ш а г 8. Определяем р-уровень значимости для /'-отношения. Для этого сравниваем эмпирическое значение /-отношения с критическими (табличными) для соответствующих чисел степеней свободы по таблице критических значений /-распределения для проверки направленных альтернатив (приложение 3).
/>= 8,571; = 2; <//2 = 8; Рт = 4,46; р < 0,05. Представим результаты в виде таблицы:
Источник изменчивости |
Сумма квадратов (55) |
а/ |
Средний квадрат (МБ) |
/ |
р-уровень |
Факторный |
10 |
2 |
5 |
8,571 |
<0,05 |
Ошибки |
4,67 |
8 |
0,583 |
— |
— |
Общий |
28 |
14 |
— |
— |
— |
Межиндивидуальный |
13,33 |
— |
— |
— |
— |
Ш а г 9. Принимаем статистические решения и формулируем содержательные выводы. Н0 на уровне а = 0,05 отклоняется. Обнаружено статистически достоверное влияние фактора положения слова в ряду на его запоминание (р < 0,05).
Заметим, что если в последнем примере рассматривать повторные измерения как независимые группы и провести однофакторный АЫОУА (с межгрупповым фактором А), то статистически значимое влияние фактора обнаружено не будет — индивидуальные различия между испытуемыми «перекроют» факторный эффект.
Двухфакторный АЫОУА с повторными измерениями по одному из факторов (с одним внутригрупповым и одним межгрупповым факторами) позволяет проверить три гипотезы: а) о влиянии внутригруппового фактора; б) о влиянии межгруппового фактора; в) о взаимодействии внутригруппового и межгруппового факторов (о зависимости влияния межгруппового фактора от уровней внутригруппового фактора — или наоборот).
1,571.
Ш а г 5. Определяем числа степеней свободы для сумм квадратов: для общей: (1/,ош1=Ы- к- 1 = 5- 3- 1 = 14; для фактора: с!/г = к— 1 = 3 — 1=2; для остаточной: с1/ег = (/V— 1)(&- 1) = 8.
Ш а г 6. Вычисляем средние квадраты.
М5,
4ГВ
= 0,583.
Этот вариант АЫОУА имеет свою специфику, связанную с выделением составных частей общей изменчивости зависимой переменной. Рассмотрим соотношение различных источников изменчивости на примере исследования влияния интонации на запоминание ряда слов.
ПРИМЕР 13.9
В эксперименте участвовало 2 группы испытуемых (фактор А — межгрупповой, два уровня): 1 — все 24 слова ряда предъявлялись с одинаковой интонацией; 2 — серединная восьмерка из того же предъявляемого ряда слов интонационно выделялась. Для каждого испытуемого измерялось по три показателя зависимой переменной — количества воспроизведенных слов (фактор В — внутригрупповой, три градации): из первой, второй и третьей восьмерки предъявленных слов. Результаты эксперимента представлены в таблице:
Фактор А |
Фактор А |
||||||||
Испытуемый |
(Уровень 1) |
Средние |
Испытуемый |
(Уровень 2) |
Средние |
||||
1 |
2 |
3 |
1 |
2 |
3 |
||||
1 |
4 |
3 |
6 |
4,33 |
6 |
3 |
5 |
4 |
4,00 |
2 |
6 |
4 |
5 |
5,00 |
7 |
5 |
6 |
3 |
4,67 |
3 |
5 |
5 |
7 |
5,67 |
8 |
4 |
7 |
5 |
5,33 |
4 |
7 |
5 |
7 |
6,33 |
9 |
6 |
7 |
5 |
6,00 |
5 |
3 |
3 |
5 |
3,67 |
10 |
2 |
5 |
3 |
3,33 |
Средние: |
5 |
4 |
6 |
МЛ] = 5 |
Средние: |
4 |
6 |
4 |
^ = 4,67 |
Мт = 4,5; = 5; Мт = 5 |
|||||||||
М= 4,833; о2 = 2,075 |
Модель двухфакторного АМОУА с межгрупповым и внутригрупповым факторами предполагает разделение общей изменчивости данных на две составляющие: а) изменчивость между объектами или межиндивидуальная изменчивость б) внутригрупповая изменчивость
= 88Ь5 + 88щ.
Межиндивидуальная изменчивость состоит из изменчивости между градациями межгруппового фактора (.У^) и изменчивости между испытуемыми внутри этих градаций (88/1гс), или, что то же самое, из изменчивости средних значений для каждого испытуемого относительно общего среднего.
58Ь5=55А^58тв=п-1-^(МгМ)Ч1.^(М1-Мк)2 ,
У=1 У=Н = 1
ИЛИ
88Ь1=1-"^(М1-М)2,
1 = 1
где п — численность объектов в одной градации межгруппового фактора; к — число градаций межгруппового фактора; / — число градаций внутригруппо- вого фактора. 88цу0— это мера ошибки межгрупповой факторной модели, или фактора В.
Внутригрупповая изменчивость — это сумма трех составляющих изменчивости: а) под влиянием внутригруппового фактора В (55в); б) под влиянием взаимодействия межгруппового и внутригруппового факторов (88АВ); в) остаточной внутригрупповой изменчивости — ошибки модели (88егВ).
58^ ~ 55 В + 55лн + 58егВ,
55н вычисляется как сумма квадратов, обусловленная различиями / средних значений (для градаций внутригруппового фактора) относительно общего среднего значения. 88лв вычисляется как сумма квадратов, обусловленная различиями кх1 средних относительно общего среднего.
55ш1 = (М- 1)-О2 = 29-2,075 = 60,175;
ПРИМЕР 13.9 (продолжение)
Ш а г 1. Вычисляем 55М(а/, 55,,, 55/,, и 55„„:
$ЮШ1
55, = п ■ I • - М)1 = 5 • 3 • [(5 - 4,83)2 + (4,67 - 4,83)2] = 0,833; /=1
33тс =1 ■ ~Мк)2= 26,667;
85Ь1=1-!%(М1.-М)2=3- [(4,33-4,833)2 +(5-4,833)2 + ... + (3,33-4,833)2] =27,5; 1=1
55№8 = 88Ша,-88ь, = 60,175 - 27,5 = 32,675.
Ш а г 2. Вычисляем 88в и 33АВ:
33в = М' X(м/ ~ м? = Ю- [(4,5 - 4,833)2 + (5 - 4,833)2 + (5 - 4,833)2 ] = 1,667;
/=1
лв = « X X ши ~ м)1 - 55, - 55, =
/=1У=1
= 5-[(5-4,83)2+(4-4,83)2+(6-4,83)2+... + (4-4,83)2]-0,83-1,67 = 21,67. Ш а г 3. Вычисляем остаточную сумму квадратов 88егВ:
ЗЗегВ = 55№8 - 55г- 55,д = 32,675 - 1,667 - 21,67 = 9,33.
Ш а г 4. Определяем числа степеней свободы:
<% = *-1 = 1; <%=/-1 = 2; 4Г,т;=М-к= 8;
а/лв = (к-\)(1-\) = 2- <&*=(ЛГ-*)(/- 1)=16.
Ш а г 5. Вычисляем средние квадраты:
М5,=^ = МЗЗ=0,833; л а/А 1
М5/жс=^^=^ = з,зз;
М8В = - = 0,833;
= 0.58;
#егв 16
МЗАВ = §^ = ^ = 10,84. ЩАв 2
Ш а г 6. Вычислим /-отношения.
^=-^- = ^ = 0,25;
М5А |
0,833 |
М81Ц,С |
3,33 |
М5В |
0,833 |
М5егВ |
0,58 |
,М5ав |
10,84 |
М5егВ |
0,58 |
Ш а г 7. Определяем уровень значимости и представляем результаты в виде таблицы:
Источник изменчивости |
Сумма квадратов (55) |
а/ |
Средний квадрат (М5) |
Р |
р-уровень |
Фактор А |
0,833 |
1 |
0,833 |
0,25 |
>0,05 |
Фактор В |
1,67 |
2 |
0,833 |
1,43 |
>0,05 |
АхВ |
21,67 |
2 |
10,84 |
18,57 |
<0,01 |
Ошибка межгрупповая |
26,67 |
8 |
3,33 |
— |
— |
Ошибка внутри- групповая |
9,33 |
16 |
0,58 |
— |
— |
Ш а г 8. Принимаем статистические решения и формулируем выводы. Н0 отклоняется только в отношении взаимодействия факторов. Обнаружено взаимодействие
РАСТОЙ_В
интонационного выделения и положения слова в ряду (р < 0,01): влияние интонационного выделения середины ряда на эффективность воспроизведения слов зависит от того, в какой части ряда находятся слова. График средних значений позволяет дать более детальную интерпретацию взаимодействия: середина ряда при интонационном выделении запоминается лучше краев ряда, а без интонационного выделения — наоборот: слова в начале и конце ряда запоминаются лучше, чем в середине ряда.
Обработка на компьютере
Используем для компьютерной обработки те же исходные данные, по которым вычисления ранее производились «вручную» (пример 13.9).
Исходные данные для анализа введены в таблицу (Ба*а Е<Шог) в следующем виде:
№ |
VI |
V2 |
V3 |
Сас(;ог_а |
1 |
4 |
3 |
6 |
1 |
2 |
6 |
4 |
5 |
1 |
3 |
5 |
5 |
7 |
1 |
4 |
7 |
5 |
7 |
1 |
5 |
3 |
3 |
5 |
1 |
6 |
3 |
5 |
4 |
2 |
7 |
5 |
6 |
3 |
2 |
8 |
4 |
7 |
5 |
2 |
9 |
6 |
7 |
5 |
2 |
10 |
2 |
5 |
3 |
2 |
Зависимая переменная — количество правильно воспроизведенных слов каждым из 10 испытуемых. Фактор А — условия предъявления (межгрупповой), имеет 2 градации и ему соответствует номинативная переменная ^ас(:ог_а. Фактор В — часть ряда (внутригрупповой), имеет 3 градации, которым соответствуют 3 переменные: VI — начало ряда, >/2 — середина ряда, л/"3 — конец ряда.
ем и переносим из левого окна при помощи кнопки >: переменные VI, ч2, уЗ — в правое верхнее окно \УкЬш-8и1уес18 УапаЫек (Внутригрупповые переменные); переменную Еас(:ог_а — во второе правое окно Ве^ееп-Зи^ес^з Гас1ог.
А) Описательные статистики:
ПезсгхрЪз^е ЗЬаЬхвЫсв
РАСТОК_А |
Меап |
зьа. |
^еV^а(;^оп |
N |
||
VI |
1.00 |
5 |
.0000 |
1 |
.58114 |
5 |
2.00 |
4 |
.0000 |
1 |
.58114 |
5 |
|
То(;а1 |
4 |
.5000 |
1 |
.58114 |
10 |
|
42 |
1 . 00 |
4 |
.0000 |
1 |
.00000 |
5 |
2.00 |
6 |
.0000 |
1 |
.00000 |
5 |
|
То(;а1 |
5 |
.0000 |
1 |
.41421 |
10 |
|
УЗ |
1.00 |
6 |
.0000 |
1 |
.00000 |
5 |
2.00 |
4 |
.0000 |
1 |
.00000 |
5 |
|
ТоЪа! |
5 |
.0000 |
1 |
.41421 |
10 |
В) Результаты М-теста Бокса (Вох'8 М-1е«1).
Вох'а Тезъ оЕ ЕдиаНЪу оЕ Сс^аггапсе МаЪгд.сез (а)
Вох'з М |
.000 |
р |
.000 |
ап |
6 |
<И2 |
463.698 |
З1д. |
1.000 |
ТезЪз ЬЪе пи11 Ьуро(;Ьез1з ЬЬаЬ ЬЬе оЬзе^есЗ сс^аг1апсе та1;г1сез ЬЬе <5ереп<5еп(; уагхаЫен аге едиа1 асгозз дгоирз.
а Эез1дп: 1п1:егсер(; + РАСТОК_А МИЫп ЗиЬзесЬз Эезгдп: РАСТОК_В
Тест показывает, что дисперсионно-ковариационные матрицы, соответствующие разным градациям межгруппового фактора, статистически достоверно не отличаются друг от друга. Следовательно, применение многомерного подхода является корректным.
С) Результаты многомерных тестов.
Ми1Ъл^аг1аЪе ТевЬ8(Ь)
Е^есЪ |
Уа1ие |
Р |
НуроЬЬе- 313 <51: |
Еггог <5Е |
81д. |
||||
РАСТОК_В |
РИ1а1' з |
.263 |
1 |
250(а) |
2 |
000 |
7 |
.000 |
.343 |
Тгасе |
|||||||||
мИкз' |
.737 |
1 |
250(а) |
2 |
000 |
7 |
.000 |
.343 |
|
ЬатЬйа |
|||||||||
НоЬеШпд' з |
.357 |
1 |
250(а) |
2 |
000 |
7 |
.000 |
.343 |
|
Тгасе |
|||||||||
Коу' 3 |
.357 |
1 |
250(а) |
2 |
000 |
7 |
.000 |
.343 |
|
ЬагдезЬ Коо); |
|||||||||
РАСТОК_В* |
РИ1а1' з |
.950 |
66 |
250(а) |
2 |
000 |
7 |
.000 |
. 000 |
РАСТОК_А |
Тгасе |
||||||||
мИкз ' |
.050 |
66 |
250(а) |
2 |
000 |
7 |
.000 |
.000 |
|
ЬатЬйа |
|||||||||
Но(;е111пд ' з |
18.929 |
66 |
250(а) |
2 |
000 |
7 |
.000 |
. 000 |
|
Тгасе |
|||||||||
Коу ' 3 |
18.929 |
66 |
250(а) |
2 |
000 |
7 |
.000 |
.000 |
|
ЬагдезЬ КооЬ |
а ЕхасЪ зЪаЫзЫс
Ь 0ез1дп: 1п(;егсер1: + РАСТОК_А ИНЫп ЗиЬзесЬз Безхдп: РАСТОК_В
Многомерные тесты не показывают статистически достоверного влияния внутригруппового фактора В. Но взаимодействие факторов А и В оказывается достоверным на высоком уровне статистической значимости. Б) Результаты теста сферичности Моучли:
МаисЫу ' з ТезЬ оЕ 5рЬег1сК;у (Ь) Меавиге: МЕА5Ш1Е_1
МхЬЫп есЬз ЕЕЕесЪ |
МаисЫу' з И |
Арргох. СЫ- Здиаге |
ае |
31д. |
ЕрзИоп(а) |
||
СгеепЬоизе- Се1ззег |
НиупЬ- Ре1ас |
Ьомег- Ьоипй |
|||||
РАСТОК_В |
.429 |
5.931 |
2 |
.052 |
. 636 |
.797 |
.500 |
а Мау Ье изесЗ Ьо ас^из!: ЬЪе сЗедгеез о5. СгеесЗот Еог ЬЪе аVе^аде<3 ЬезСз оЕ з1дп1С1сапсе. СоггесЬей ЬезЬз аге сИзр1ауес1 1п СЬе ТезЬз оЕ мК:Ып-5и1^ есЬз ЕССесЬз ЬаЫе.
Ь 0ез1дп: 1п(;егсер(; + РАСТОК_А МхСЫп ЗиЬ^есЬз 0ез1дп: РАСТОК_В
Результат теста сферичности Моучли не достигает статистически значимого уровня (5хд. > 0 . 05). Следовательно, дисперсии для уровней внутригруппового фактора на разных уровнях межгруппового фактора существенно не отличаются, корреляции между повторными измерениями есть, но они не достигают единицы. Применение одномерного подхода является корректным.
Е) Результаты одномерных тестов эффекта внутригруппового фактора В:
ТевЬз оЕ ИгЬЫп-ЗиЬзесЬа ЕЕЕесЪз
Меазиге: МЕАЗиКЕ_1
Зоигсе |
Туре III Зит о€ Здиагез |
<5Е |
Меап Здиаге |
Р |
31д. |
|||||
РАСТОК_В |
ЗрЬег1с1(;у Аззише<5 |
1. |
667 |
2 |
833 |
1. |
429 |
. 269 |
||
СгеепЬоизе- Се1ззег |
1. |
667 |
1 |
273 |
1 |
310 |
1. |
429 |
.270 |
|
НиупЪ-РеЫЪ |
1. |
667 |
1 |
595 |
1 |
045 |
1. |
429 |
. 270 |
|
Ьокег-Ъоипй |
1. |
667 |
1 |
ООО |
1 |
667 |
1. |
429 |
.266 |
|
РАСТОК_В * РАСТОК_А |
ЗрЬег1с1(;у Аззитес! |
21. |
667 |
2 |
10 |
833 |
18. |
571 |
.000 |
|
СгеепЬоизе- Се1ззег |
21 |
667 |
1 |
273 |
17 |
024 |
18 . |
571 |
.001 |
|
НиупЪ-Ре1<5(; |
21 |
667 |
1 |
595 |
13 |
588 |
18 . |
571 |
.000 |
|
Ьомег-Ъоипй |
21 |
667 |
1 |
ООО |
21 |
667 |
18. |
571 |
. 003 |
|
Еггог (РАСТОК_В) |
ЗрЬег1С1(;у Аззитес! |
9 |
333 |
16 |
583 |
|||||
СгеепЬоизе- Се1ззег |
9 |
333 |
10 |
182 |
917 |
|||||
НиупЪ-Ре1с1(; |
9. |
333 |
12 |
757 |
732 |
|||||
Ьомег-Ьоипд |
9 |
333 |
8 |
ООО |
1 |
167 |
Это результаты проверки гипотез относительно внутригрупповых эффектов факторов с применением /'-отношения. Они идентичны полученным при вычислениях «вручную» (пример 13.9, шаг 6) для фактора В и взаимодействия А и В. Эффект фактора В статистически не достоверен, но взаимодействие факторов А и В статистически значимо.
Р) Результаты проверки однородности дисперсии по критерию Ливена:
^еVепе' з ТезЬ оЕ ЕдиаНЬу оЕ Еггог Уаг1апсез(а)
р |
аи |
<5Е2 |
31д. |
|
VI |
.000 |
1 |
8 |
1. 000 |
42 |
.000 |
1 |
8 |
1.000 |
УЗ |
. 000 |
1 |
8 |
1. 000 |
ТезЬз ЬЪе пи11 ЬуроСЬез1з СЪаЪ ЪЪе еггог Vа^^апсе оЕ СЬе <5ереп<5еп(; уаггаЫе 13 едиа1 асгозз дгоирз.
а Эез1дп: 1пСегсер(; + РАСТОК_А МхЬЫп ЗиЬзесЬз 0ез1дп: РАСТОК_В
Критерий Ливена применяется в данном случае для сравнения градаций межгруппового фактора в отношении каждого повторного измерения зависимой переменной. Результаты демонстрируют отсутствие статистически достоверных различий дисперсий для каждого из трех измерений зависимой переменной. Следовательно, эффект межгруппового фактора может быть принят во внимание.
О) Результаты одномерного теста эффекта межгруппового фактора А:
ТезЪз оЕ ВеЬиееп-ЗиЬзесЬа ЕЕЕесЬв
Меазиге: МЕА511КЕ_1 ТгапзЕогшед Уаг1аЫе: АVе^аде
Зоигсе |
Туре III Зиш оЕ Здиагез |
ЙЕ |
Меап Здиаге |
Р |
51д. |
1п(;егсер(; |
700.833 |
1 |
700.833 |
210.250 |
.000 |
РАСТОК_А |
.833 |
1 |
.833 |
.250 |
.631 |
Еггог |
26.667 |
8 |
3.333 |
Это результат проверки гипотезы о влиянии межгруппового фактора А с применением /'-отношения. Он также идентичен полученным при вычислениях «вручную» (шаг 6) для фактора А. Эффект фактора А статистически не достоверен. Н) График средних значений:
РгоЕИе р1оЬ8
ЕзИтагей Магдта! Меапз о* МЕА51)РЕ_1
РАСТОЙВ
График средних значений облегчает интерпретацию полученных результатов. Середина ряда при интонационном выделении запоминается лучше краев ряда, а без интонационного выделения — наоборот: слова в начале и в конце ряда запоминаются лучше, чем в середине ряда.
МНОГОМЕРНЫЙ АШУА (МАШУА)
Многомерный АЫОУА применяется для изучения эффектов влияния факторов не на одну, а на несколько зависимых переменных (на многомерную зависимую переменную). Таким образом, для каждого объекта (испытуемого) имеются несколько зависимых переменных, которые подвергаются дисперсионному анализу. Поскольку зависимых переменных несколько, то общепринятое его сокращенное обозначение — МАЫОУА (Ми11мапа1е АЫОУА). МАЫОУА позволяет проверить не только гипотезы о влиянии факторов на каждую из зависимых переменных в отдельности, но и гипотезу о влиянии факторов на всю совокупность зависимых переменных, как на одну многомерную переменную.
Структура исходных данных для МАЫОУА похожа на структуру исходных данных для АЫОУА с повторными измерениями. Однако в отличие от АЫОУА с повторными измерениями в МАЫОУА зависимые переменные не обязательно являются повторными измерениями одной и той же переменной, но могут быть и разными переменными. При этом предполагается, что зависимые переменные — это различные измерения одного и того же свойства (явления).
МАЫОУА может применяться как альтернатива АЫОУА с повторными измерениями в случае, если не выполняется его основное допущение — о сферичности ковариационно-дисперсионной матрицы. Однако при выборе МАЫОУА вместо АЫОУА с повторными измерениями необходимо учитывать, что МАЫОУА является более сложной, но менее мощной (чувствительной) процедурой, особенно в отношении выборок небольшой численности.
Последовательность МАЫОУА включает в себя два этапа: многомерный и одномерный. Многомерный подход применяется для проверки гипотез о влиянии факторов на многомерную зависимую переменную. При этом предполагается, что множество зависимых переменных — это множество измерений одной, но многомерной зависимой переменной. Соответственно, при проверке гипотезы о влиянии факторов на многомерную зависимую переменную учитываются корреляции между различными измерениями этой зависимой переменной. На одномерном этапе проверяются гипотезы о влиянии факторов на каждую из зависимых переменных в отдельности. Таким образом, одномерный этап — это реализация обычного АЫОУА к каждой из зависимых переменных. Назначение одномерного этапа — детализация результатов многомерного анализа.
Математические допущения МАЫОУА связаны с тем, что зависимая переменная рассматривается как многомерная величина. Первое допущение — омноюмерном нормальном распределении зависимых переменных. Второе допущение — о равенстве дисперсионно-ковариационных матриц для каждого уровня факторов и их сочетаний. Первое допущение не проверяется, так как МАЫОУА так же устойчив к отклонениям выборочных распределений от нормального вида, как и другие виды АЫОУА. Второе допущение эквивалентно допущениям об однородности дисперсии для обычного АЫОУА. В данном случае, как и в АЫОУА с повторными измерениями, это требование идентичности ковариационно-дисперсионных матриц, соответствующих разным уровням межгрупповых факторов. Для проверки этого допущения также применяется М-тест Бокса (Вох'з Тез*). Дополнительно для одномерного этапа необходимо выполнение допущения об однородности дисперсий, которое проверяется при помощи критерия Ливена (Ьеуепе'з Тез*).
Дополнительным условием проведения МАМОУА может являться зависимость друг от друга самих зависимых переменных (их корреляция). Для проверки этого условия надо убедиться, что недиагональные элементы корреляционной матрицы зависимых переменных существенно отличаются от нуля. Для статистической проверки допущения о коррелированности зависимых переменных применяется тест сферичности остатков ковариационной матрицы Бартлетта (ВаШеН'з Те$1 о/БрНепсИу), который проводится, если воспользоваться опцией Яе51ёиа1 88СР ша1пх (Остатки дисперсионно-ковариа- ционной матрицы) программы 8Р88.
Основные показатели МАМОУА включают в себя многомерные и одномерные критерии. В качестве многомерных критериев используются многомерные тесты (Ми1Иуапа(е Тез1$), учитывающие корреляцию зависимых переменных. Обычно вычисляются несколько многомерных критериев, обладающих разной мощностью (чувствительностью). Программа 8Р55 вычисляет следующие многомерные критерии (в порядке убывания их мощности): Пиллая (РШаГз Тгасе), Вилкса (\УИк8' ЬагпЬёа), Хотеллинга (Но1еШп§'8 Тгасе) и Роя (К.оу'8 Ьаг§е81 К.оо1). Эти критерии, а также уровни их статистической значимости вычисляются для каждого фактора и всех взаимодействий. Одномерные критерии (Тез1$ о/ Ве1м>ееп-5>иЬ)ес1$ Е//ес($) — это обычные /-отношения для проверки гипотез о влиянии факторов и их взаимодействий на каждую из зависимых переменных в отдельности. Схема проведения МАМОУА предполагает, что одномерные критерии позволяют детализировать те эффекты, статистическая значимость которых подтверждена многомерными критериями.
Последовательность и основные показатели МАМОУА рассмотрим на примере обработки данных гипотетического эксперимента при помощи программы 8Р88.
ПРИМЕР 13.10
Предположим, изучалось влияние интонации на запоминание ряда из 24 несвязанных по смыслу слов. Эксперимент состоял из двух серий, в каждой из которых участвовало по 10 испытуемых. В первой серии использовались слова с одинаково высокой, а во второй — с одинаково низкой частотой встречаемости. В каждой серии половине из 10 испытуемых весь ряд предъявлялся с одинаковой интонацией, а половине — с интонационным выделением серединных восьми слов. Затем для каждого испытуемого подсчитывались три показателя количества правильно воспроизведенных слов: из первой, второй и третьей части предъявленного ряда (по 8 слов). Таким образом, эксперимент включал в себя два фактора: фактор А — интонационное выделение (2 градации: 1 — нет, 2 — есть), фактор В — частота встречаемости слов (две градации: 1 — высокочастотные, 2 — низкочастотные). Изучалось влияние этих факторов натри зависимые переменные — показатели успешности воспроизведения слов: у1 — для начала ряда, у2 — для середины ряда, уЗ — для конца ряда.
Обработка на компьютере
Исходные данные (пример 13.10) для анализа введены в таблицу (Ба1а Е<Шог) в следующем виде:
№ |
VI |
ч2 |
а |
Ь |
|
1 |
4 |
3 |
6 |
1 |
1 |
2 |
6 |
4 |
5 |
1 |
1 |
3 |
5 |
5 |
7 |
1 |
1 |
4 |
7 |
5 |
7 |
1 |
1 |
5 |
3 |
3 |
5 |
1 |
1 |
6 |
3 |
5 |
4 |
2 |
1 |
7 |
5 |
6 |
3 |
2 |
1 |
8 |
4 |
7 |
5 |
2 |
1 |
9 |
6 |
7 |
5 |
2 |
1 |
10 |
2 |
5 |
3 |
2 |
1 |
11 |
3 |
2 |
5 |
1 |
2 |
12 |
4 |
3 |
4 |
1 |
2 |
13 |
4 |
4 |
5 |
1 |
2 |
14 |
4 |
4 |
4 |
1 |
2 |
15 |
2 |
о |
4 |
1 |
2 |
16 |
2 |
4 |
3 |
2 |
2 |
17 |
4 |
5 |
2 |
2 |
2 |
18 |
3 |
4 |
3 |
2 |
2 |
19 |
3 |
5 |
4 |
2 |
2 |
20 |
1 |
4 |
2 |
2 |
2 |
А) Детальные описательные статистики:
Бе8сг1рЫ^е ЗЪаЫ8Ъ1с8
А |
В |
Меап |
бей. ^еV^а(;^оп |
N |
|
VI |
1.00 |
1. 00 |
5.0000 |
1.58114 |
5 |
2.00 |
3.4000 |
.89443 |
5 |
||
ТоЬа1 |
4.2000 |
1.47573 |
10 |
||
2.00 |
1.00 |
4 . 0000 |
1.58114 |
5 |
|
2.00 |
2.6000 |
1.14018 |
5 |
||
ТоЬа! |
3.3000 |
1.49443 |
10 |
А |
в |
Меап |
ЗЬй. ^еv^аЬ^оп |
N |
|
ТоЬа1 |
1.00 |
4.5000 |
1.58114 |
10 |
|
2.00 |
3.0000 |
1.05409 |
10 |
||
ТоЬа1 |
3 .7500 |
1.51744 |
20 |
||
У2 |
1.00 |
1.00 |
4.0000 |
1.00000 |
5 |
2.00 |
3.0000 |
1.00000 |
5 |
||
ТоЬа1 |
3.5000 |
1.08012 |
10 |
||
2.00 |
1.00 |
6.0000 |
1.00000 |
5 |
|
2.00 |
4.4000 |
. 54772 |
5 |
||
ТоЬа1 |
5.2000 |
1.13529 |
10 |
||
ТоЬа1 |
1.00 |
5.0000 |
1.41421 |
10 |
|
2.00 |
3.7000 |
1.05935 |
10 |
||
ТоЬа1 |
4.3500 |
1.38697 |
20 |
||
УЗ |
1.00 |
1.00 |
6.0000 |
1.00000 |
5 |
2.00 |
4.4000 |
.54772 |
5 |
||
ТоСа1 |
5.2000 |
1.13529 |
10 |
||
2.00 |
1.00 |
4.0000 |
1.00000 |
5 |
|
2.00 |
2.8000 |
.83666 |
5 |
||
ТоЬа1 |
3.4000 |
1.07497 |
10 |
||
ТоЬа! |
1.00 |
5.0000 |
1.41421 |
10 |
|
2 .00 |
3.6000 |
1.07497 |
10 |
||
ТоЬа1 |
4.3000 |
1.41793 |
20 |
В) Результаты М-теста Бокса:
Вох'а ТевЬ оЕ ЕдиаНЬу оЕ Сс^аг1апсе МаЬг1ов8(а)
Вох'3 М |
9.520 |
Г |
.339 |
ае1 |
18 |
сЗЕ2 |
904.638 |
31д. |
.996 |
ТезЬз ЬЬе пи11 ЬуроСЬезхз ЬЬаЬ ЬЬе оЬзегуей соVа^^апсе таЬгхсез оЕ ЬЬе сЗерепйепС Vа^^аЫез аге едиа1 асгозз дгоирз.
а 0ез1дп: 1пСегсерЬ+А+в+А * в
М-тест Бокса не достигает уровня статистической значимости (51д. >0,05), следовательно, дисперсионно-ковариационные матрицы статистически достоверно не различаются. Это значит, что выполняется главное допущение для многомерных тестов и их результаты могут быть приняты к рассмотрению.
С) Результаты теста сферичности Бартлетта:
ВагЪ1еЪЪ'8 ТевЬ оЕ 5рЬег1о1Ьу(а)
ЫкеНЬоой |
КаСхо |
.000 |
Арргох. СМ |
-Здиаге |
20.841 |
5 |
||
Зхд. |
.001 |
ТезЬз ЬЪе пи11 ЬуроСЬезхз ЬЬаС СЬе гезхсЗиа1 сс^аг1апсе таСг1х 13 ргорог(;1опа1 Ьо ап 1<Зеп(:1Ьу таЬгхх. а 0ез1дп: 1п(:егсерС+А+в+А * в
Тест показывает статистически достоверный результат (31д. = 0,001). Следовательно, зависимые переменные связаны друг с другом корреляциями. О) Результаты многомерных тестов:
Ми1Ъ^аг1аЪе Тезса (Ь)
ЕЕЕесС |
Уа1ие |
Г |
НуроСЬе- 313 |
Еггог ДЕ |
Зхд. |
|
1пЪегсерс |
РИ1а1 ' з Тгасе |
.976 |
192.6(а) |
3 |
14 |
. 000 |
ИНкз' ЬатЬйа |
.024 |
192.6(а) |
3 |
14 |
. 000 |
|
НоЬеШпд 1 з Тгасе |
41.27 |
192.б(а) |
3 |
14 |
. 000 |
|
Коу' з ЬагдезЬ КооЬ |
41.27 |
192.6(а) |
3 |
14 |
. 000 |
|
А |
РШа1'8 Тгасе |
. 896 |
40.01(а) |
3 |
14 |
.000 |
ИНкз' ЬатЬсЗа |
. 104 |
40.01(а) |
3 |
14 |
. 000 |
|
НоЬеШпд 1 з Тгасе |
8.57 |
40.01(а) |
3 |
14 |
. 000 |
|
Коу'з ЬагдезЬ КооЬ |
8.57 |
40.01(а) |
3 |
14 |
.000 |
|
В |
РШах'з Тгасе |
.494 |
4 . 552(а) |
3 |
14 |
.020 |
ИНкз' ЬатЬсЗа |
. 506 |
4 . 552(а) |
3 |
14 |
.020 |
|
НоЬеШпд' з Тгасе |
.975 |
4.552(а) |
3 |
14 |
.020 |
|
Ноу'з ЬагдезЬ КооЪ |
.975 |
4.552(а) |
3 |
14 |
. 020 |
|
А * В |
РИЫ'з Тгасе |
.158 |
.875(а) |
3 |
14 |
.478 |
ИНкз' ЬатЬсЗа |
.842 |
.875(а) |
3 |
14 |
.478 |
|
НоЬеШпд 1 з Тгасе |
. 187 |
.875(а) |
3 |
14 |
.478 |
|
Коу1з ЬагдезЬ КооЬ |
.187 |
.875(а) • |
3 |
14 |
.478 |
а ЕхасЬ зЬаЫзЫс
Ь Пезгдп: 1пЬегсер(:+А+В+А * В
Многомерные тесты показывают статистически значимые результаты влияния факторов Л и 5(8 гд. < 0 , 0 5); взаимодействие факторов не достигает уровня статистической значимости (51д. > 0,05). Следовательно, интонационное выделение и частота встречаемости слов статистически достоверно влияет на продуктивность их воспроизведения. Не обнаружена зависимость влияния интонационного выделения от частоты встречаемости слов. Иными словами, интонационное выделение влияет на продуктивность воспроизведения как часто встречающихся, так и редких слов.
Е) Результаты одномерных тестов:
Те8Ъ8 оЕ ВеЪмееп-Зик^есЪа ЕЕЕесЬа
Зоигсе |
Берепйеп!: УаггаЫе |
Туре III Зит оЕ Зчиагез |
сЗЕ |
Меап 8^иа^е |
Р |
31д. |
|
СоггесЬей |
VI |
15.350(а) |
3 |
5 .117 |
2 |
883 |
.068 |
Мос1е1 |
У2 |
23.350(Ь) |
3 |
7 .783 |
9 |
434 |
.001 |
УЗ |
2 6.200(с) |
3 |
8.733 |
11 |
. 644 |
.000 |
Зоигсе |
БерепйепЬ Уаг1аЫе |
Туре III Зшп Здиагев |
йг |
Меап Здиаге |
Р |
Вхд. |
1пЬегсер(: |
VI |
281.250 |
1 |
281.250 |
158.451 |
.000 |
42 |
378.450 |
1 |
378.450 |
458 . 727 |
.000 |
|
УЗ |
369.800 |
1 |
369.800 |
493.067 |
.000 |
|
А |
VI |
4 . 050 |
1 |
4 . 050 |
2.282 |
. 150 |
42 |
14.450 |
1 |
14.450 |
17.515 |
.001 |
|
УЗ |
16.200 |
1 |
16.200 |
21.600 |
.000 |
|
В |
VI |
11.250 |
1 |
11.250 |
6.338 |
.023 |
42 |
8.450 |
1 |
8.450 |
10.242 |
.006 |
|
УЗ |
9.800 |
1 |
9.800 |
13.067 |
. 002 |
|
А * В |
VI |
.050 |
1 |
. 050 |
. 028 |
. 869 |
У2 |
.450 |
1 |
.450 |
.545 |
. 471 |
|
УЗ |
.200 |
1 |
.200 |
.267 |
.613 |
|
Еггог |
VI |
28 .400 |
16 |
1.775 |
||
У2 |
13 .200 |
16 |
. 825 |
|||
УЗ |
12.000 |
16 |
.750 |
|||
ТоЬа1 |
VI |
325.000 |
20 |
|||
У2 |
415.000 |
20 |
||||
УЗ |
408.000 |
20 |
||||
СоггесЬей |
VI |
43 .750 |
19 |
|||
ТоЬа! |
У2 |
36.550 |
19 |
|||
УЗ |
38.200 |
19 |
а К Здиагей = .351 (Айз'изЬей К Здиагей = .229) Ь К Здиагей = .639 (Ай^изЬей К Здиагей = .571) с К Здиагей = .686 (Ай^изЬей К Здиагей = .627)
Результаты одномерных тестов детализируют статистически достоверные результаты многомерных тестов. Влияние фактора А проявляется статистически достоверно в отношении у2 — середины ряда и уЗ — конца ряда. Судя по средним значениям для разных градаций этого фактора (см. Бехспрйуе 8(а(|$ис$ — Описательные статистики), при интонационном выделении середины ряда статистически достоверно увеличивается продуктивность воспроизведения середины ряда и уменьшается продуктивность воспроизведения конца ряда слов. Это различие наблюдается независимо от частоты встречаемости слов — как для часто встречающихся, так и для редких слов. Влияние фактора частоты встречаемости слов проявляется статистически достоверно в отношении всех трех зависимых неременных. Судя по средним значениям для разных градаций этого фактора, продуктивность воспроизведения редких слов ниже для каждой из трех частей ряда слов, чем продуктивность воспроизведения часто встречающихся слов.
Часть III
МНОГОМЕРНЫЕ МЕТОДЫ И МОДЕЛИ
Глава 14
НАЗНАЧЕНИЕ И КЛАССИФИКАЦИЯ МНОГОМЕРНЫХ МЕТОДОВ
При изучении основ применения математических методов акцент ставится на процедурах проверки статистических гипотез. В XX столетии статистическая проверка гипотез становится обязательной в науке вплоть до того, что логика статистического вывода начинает диктовать характер и форму самого исследования. При этом зачастую получается, что выявленные «статистически достоверные закономерности» с точки зрения содержательной теории или здравого смысла имеют в лучшем случае ничтожную ценность. Обилие подобных фактов вызывает справедливую критику абсолютизации теории статистического вывода в исследованиях, появляются даже крайние точки зрения, ставящие под сомнение саму возможность использования математических методов в психологии. Ведь действительно, выбор и использование статистических критериев не свободны от произвола исследователя: во многих случаях для одной и той же гипотезы можно подобрать статистический критерий, который ее отбросит, или тот критерий, который ее подтвердит. Остается уповать только на добросовестность исследователя.
При абсолютизации аппарата проверки гипотез забывают о том, что роль математических методов не только, да и не столько в статистическом обосновании предположений. Более значима исходная функция математических методов в любой области знания — представление эмпирических данных в пригодном для интерпретации виде, поиск смысла в обилии исходной информации. Ведь очень часто прежде, чем сформулировать гипотезу, мы «для себя» вычисляем средние значения, сравниваем частоты и т. д., то есть пытаемся осмыслить данные. Часто эти простейшие операции и не ассоциируются с применением математических методов. А на самом деле, с них и начинается использование математических методов в их основных назначениях — поисковых и описательных.
Здесь уместно ввести понятие эмпирической математической модели (ЭММ). Это описательные математические модели, применяемые для представления исходных (эмпирических) данных в доступном для интерпретации виде. Простейшие ЭММ — средние значения признака, вычисляемые для сравниваемых групп в предположении, что различия в средних значениях отражают различия между представителями групп. Или даже просто ранжирование членов группы, которое предполагает, что порядковый номер испытуемого отражает выраженность изучаемого свойства. Если у нас два признака, измеренных на группе объектов (испытуемых), то мы вычисляем коэффициент корреляции или сопряженности, исходя из предположения о согласованности индивидуальной изменчивости признаков.
По сути дела, ЭММ идентичны мыслительным операциям. Но непосредственно сравнивать, различать, определять взаимосвязь и т. д. мы можем только при небольшой численности объектов или признаков. Когда объектов много, а признаков один-два, мы начинаем подсчитывать, если объектов более десятка — мы берем калькулятор. Когда много и объектов и признаков, простейшие ЭММ уже мало пригодны. И тогда возникает необходимость применения многомерных методов и компьютера.
Многомерные методы, таким образом, это дальнейшее развитие ЭММ в отношении многостороннего (многомерного) описания изучаемых явлений. Как и простейшие ЭММ, многомерные ЭММ воспроизводят мыслительные операции человека, но в отношении таких данных, непосредственное осмысление которых невозможно в силу нашей природной ограниченности. Многомерные методы выполняют такие интеллектуальные функции, как структурирование эмпирической информации (факторный анализ), классификация (кластерный анализ), экстраполяция (множественный регрессионный анализ), распознавание образов (дискриминантный анализ) и т. д.
Идея применения многомерных методов возникла практически одновременно с началом измерений в психологии. В конце XIX века Ф. Гальтон высказал мысль об общем факторе способностей, лежащем в основе согласованной индивидуальной изменчивости разных показателей способностей. Ч. Спирмен в начале XX века реализовал эту идею в однофакторном анализе для обоснования модели общего интеллекта. В 1930-е годы другой психолог, Л. Терстоун, предложил многофакторную математическую модель интеллекта и процедуру факторного анализа для ее верификации.
На протяжении последующих двух десятков лет факторный анализ не признавался математиками, ассоциируясь лишь с психологической моделью интеллекта. В 1950-е годы, с появлением ЭВМ, расширение применения факторного анализа в психологии сопровождается совершенствованием его математического аппарата. Итог этих лет — выход факторного анализа за пределы психологии, его внедрение в различные области знания в качестве популярного общенаучного метода. Другой итог — касается самой психологии: факторный анализ используется как основной инструмент при разработке наиболее известных тестовых методик (Р. Кеттелл, Г. Айзенк, Д. Векслер, Р. Амтхауэр и т. д.). Дальнейшее развитие психодиагностики складывается в соответствии с известным каноном: величие открытия определяется степенью последующего торможения развития науки в данном направлении. В настоящее время, несмотря на возникновение новых многомерных методов, в том числе в психологии (многомерное шкалирование), развитие психодиагностики буквально блокировано факторно-аналитичес
кой традицией: мы измеряем признаки и сортируем их по факторам на основе взаимных корреляций.
С 1960-х годов, в связи с развитием компьютеризации, появляются все новые и новые методы многомерного анализа данных. Однако их широкое применение становится возможным лишь к концу 1980-х годов, с распространением персональных компьютеров. Дело в том, что любой многомерный метод требует циклической обработки данных, где на каждом этапе сам исследователь должен принимать решение о характере обработки. Поэтому раньше корректная реализация многомерного метода, например факторного анализа, требовала недель работы группы специалистов: предметника (психолога), статистика, программиста, оператора и др. Далеко не каждая исследовательская лаборатория могла себе это позволить.
В настоящее время, с появлением мощных и простых в применении программных средств, сам специалист может реализовать весь процесс многомерного анализа данных, не вдаваясь в вычислительные сложности. Для этого ему достаточно знать общий смысл метода, требования к исходным данным и основные показатели для интерпретации получаемых результатов. Вот этих- то знаний, компактных по объему и далеких от вычислительных тонкостей, ему часто и не хватает.
Наш опыт работы с многомерными методами начался с осознания необходимости создания удобного инструмента для их применения. Так, под нашим руководством в конце 1980-х годов была создана «Диалоговая система многомерного анализа экспериментальных данных» (ДИСМА — для ДВК, 18МЕХ — для РС). Работа этой программы на протяжении 10 лет в качестве основной для статистической обработки данных на факультете психологии СПбГУ выявила преобладание консервативной традиции у большинства специалистов. Понятие многомерных данных ограничивается факторным анализом, а сам анализ понимают как однократное преобразование корреляций в факторные нагрузки. Такое упрощенное понимание, помимо малоэффективного использования эмпирики, ограничивает перспективы развития как методов психодиагностики, так и методов организации исследования. Во- первых, любой многомерный анализ предполагает многократное преобразование данных, например факторный анализ — с разным числом факторов и с вариацией набора переменных. Во-вторых, факторный анализ — далеко не единственный, а часто и не оптимальный многомерный метод. В-третьих, ограниченность факторно-аналитической моделью задает слишком узкий, диапазон способов организации самого эмпирического исследования: его данные должны представлять собой «множество признаков, измеренных у множества испытуемых».
Список многомерных методов, рассмотренных в этом разделе книги, не претендует на полноту: здесь изложены основы наиболее часто применяемых в психологии многомерных методов.
Представленные методы можно классифицировать по трем основаниям: в соответствии с интеллектуальной операцией (по способу преобразования исходной информации) — по назначению метода; по способу сопоставления данных — по сходству (различию) или пропорциональности (корреляции); по виду исходных эмпирических данных.
Классификация методов по назначению:
Классификация методов по исходным предположениям о структуре данных:
Классификация методов по виду исходных данных:
Представленные классификации свидетельствуют о необходимости знаний многомерных методов, их возможностей и ограничений уже на стадии общего замысла исследования. Например, ориентируясь только на факторно-аналитическую модель, исследователь ограничен в выборе процедуры диагностики: она должна состоять в измерении признаков у множества объектов. При этом исследователь ограничен и в направлении поиска: он изучает либо взаимосвязи между признаками, либо межгрупповые различия по измеряемым признакам. Общая осведомленность о других многомерных методах позволит исследователю использовать более широкий круг психодиагностических процедур, решать более широкий спектр не только научных, но и практических задач.
Применение многомерных методов требует, разумеется, не только самого компьютера, но и соответствующего программного обеспечения. Широко известны и распространены универсальные статистические программы 8ТАТ18Т1СА и 8Р88, содержащие практически весь спектр статистических методов — от простейших до самых современных. Мы разделяем мнение, что программа 5ТАТ13Т1СА обладает прекрасной графикой и гибкостью в обработке данных. Однако программа 8Р88 имеет свои преимущества: она не только проще в освоении и применении, но и включает в себя ряд методов, отсутствующих в 5ТАТ18Т1СА, например, варианты многомерного шкалирования.
Глава 15
МНОЖЕСТВЕННЫЙ РЕГРЕССИОННЫЙ АНАЛИЗ
НАЗНАЧЕНИЕ
Множественный регрессионный анализ (МРА) предназначен для изучения взаимосвязи одной переменной (зависимой, результирующей) и нескольких других переменных (независимых, исходных)17. Исходные данные для МРА представляют собой таблицу (матрицу) размерностью Их Р следующего вида:
№ |
ХР |
|||
1 |
хи |
*н |
Х1Р |
|
2 |
*м |
Х22 |
х2р |
|
N |
хт |
хга |
хыр |
Строки этой таблицы соответствуют объектам (испытуемым), а столбцы — переменным. Все переменные при этом должны быть измерены в количественной шкале. Одна из переменных определяется исследователем как зависимая, а остальные (или часть их) — как независимые переменные. Допускается, что для некоторых объектов значения зависимой переменной неизвестны, и их определение (оценка) может составлять важный результат анализа.
МРА может применяться как для решения прикладных задач, так и в исследовательских целях. Обычно МРА применяется для изучения возможности предсказания некоторого результата (обучения, деятельности) по ряду предварительно измеренных характеристик. При этом предполагается, что связь между одной зависимой переменной (У) и несколькими независимыми переменными (X) можно выразить линейным уравнением:
У= Ь + + Ь2х2 + ...+ЬРхР+ е, (15.1)
где У— зависимая переменная; хи ..., хР — независимые переменные; Ъ, Ьь ..., ЬР — параметры модели; е — ошибка предсказания.
ПРИМЕРЫ
Психолога может заинтересовать предсказание успеваемости абитуриента по измеренным психологическим характеристикам (интеллекта, личности и пр.). В этом случае он использует уже имеющиеся данные о взаимосвязи успеваемости и предварительного психологического тестирования за прошлые годы. Успеваемость при этом он рассматривает как зависимую переменную, психологические показатели — как независимые переменные. Применяя МРА, он получает модель предсказания в виде 15.1. Подставляя в эту модель данные абитуриента, психолог получает предсказание его успеваемости.
Сходным образом психолог может изучать удовлетворенность оплатой труда. Привлекая данные разных компаний, он может при помощи МРА определить зависимость оплаты труда (К) сотрудника от степени ответственности, количества подчиненных и других показателей (хи..., хР). Пользуясь этой моделью, можно определить сотрудников, которым недоплачивают, переплачивают или платят «справедливо» за их труд.
Р. Кеттелл при помощи МРА получил «профессиональные портреты» для некоторых специальностей:
Коэффициенты регрессии перед сокращенными техническими обозначениями шкал-факторов опросника Р. Кеттелла указывают на их вклад в прогноз эффективности соответствующей деятельности. Так, для психотерапевта важнее всего общительность (А), а для психодиагноста — интеллект (В).
Помимо предсказания и определения степени его точности МРА позволяет определить и то, какие показатели («независимые переменные») наиболее существенны, важны для предсказания, а какими переменными можно пренебречь, исключив их из анализа. Например, психолога может интересовать вопрос о том, какие психологические характеристики в наибольшей степени влияют на проявление исследуемой формы поведения или какие индивидуальные особенности лучше предсказывают успешность деятельности и пр.
Следует отметить родственность множественного регрессионного и дисперсионного анализа. В основе этих методов лежит одна и та же линейная модель 15.1. Этот факт отражает и название, которое объединяет различные варианты дисперсионного анализа (в частности, в программе 5Р55): общая линейная модель (Сенега! Ыпеаг МойеТ). МРА в этом смысле можно рассматривать как аналог многофакторного дисперсионного анализа для случая, когда независимые переменные представляют собой не градации факторов (номинативные переменные), а измерены в количественной шкале. Тогда, в соответствии с моделью 15.1, МРА выступает как инструмент исследования влияния факторов (независимых переменных) хь ..., хР на зависимую переменную У.
Часто зависимая переменная У выступает в качестве градаций, которым соответствуют разные группы объектов, т. е. измерена в номинативной шкале. В этом случае модель множественной регрессии неприемлема, и вместо МРА может быть применен дискриминантный анализ, который решает те же задачи и позволяет получить сходные результаты (см. главу 16).
МРА может применяться и в том случае, если переменная /является причиной изменения нескольких переменных х,, ..., хР. Так, зависимой переменной может быть скрытая причина, фактор, например личностное свойство, а независимыми переменными — пункты теста, измеряющие различные проявления этого свойства. Таким образом, понятия «зависимая» и «независимая» переменные в МРА являются условными, а определение направления причинно-следственной связи выходит за рамки применения самого метода.
МАТЕМАТИКО-СТАТИСТИЧЕСКИЕ ИДЕИ МЕТОДА
Исходным положением линейного МРА является возможность представления значений «зависимой» переменной У через значения «независимых» переменных хь х2, ..., хР в виде линейного уравнения:
У= Ь + Ьххх + Ь2х2 + ... +Ьрхр + е,
где Ъ — свободный член (1п1егсер1), Ь,, ..., ЬР — Ь — коэффициенты регрессии
(ШзШпйагсНгей Сое/раеМз), е — ошибка оценки (КезШиаI). Коэффициенты регрессии вычисляются методом наименьших квадратов при решении системы из линейных уравнений, с минимизацией ошибки е.
После вычисления регрессионных коэффициентов по значениям независимых переменных для каждого из объектов могут быть вычислены оценки зависимой переменной У(РгесИс(ес1 Уа1иез)\
У= Ь + Ьххх + Ь2х2 + ...+ЬРхР. (15.2)
Сопоставление значений зависимой переменной У1 с их оценками У( по выборке испытуемых, для которых значения У1 известны, называется анализом остатков или ошибок (гезШиа1 апа/узи). Он позволяет оценить возможные погрешности предсказания. Значения оценок У( могут быть вычислены и для испытуемых, истинные значения зависимой переменной для которых неизвестны.
Далее можно вычислить коэффициент корреляции Пирсона между известными значениями «зависимой» переменной и ее оценками. Это один из способов получения коэффициента множественной корреляции (КМК) между «зависимой» и «независимыми» переменными. Коэффициент множественной корреляции — это мера линейной связи одной переменной с множеством других переменных; принимает положительные значения от 0 (отсутствие связи) до 1 (строгая прямая связь). КМК наряду с разностями между исходными и оцененными значениями «зависимой» переменной (ошибки е) — основные показатели качества модели множественной регрессии.
Если «зависимая» и «независимые» переменные представлены в ^значениях, то уравнение регрессии принимает вид:
Гг=р1х, + р2х2+... +$рХр+е, (15.3)
где Р/,— стандартные коэффициенты регрессии, или р-коэффициенты (8Шпйагй1гей Сое$1аеМ5).
Стандартные коэффициенты регрессии связаны с исходными корреляциями следующим уравнением (в матричной форме):
В=К~18А, (15.4)
где В — вектор-столбец стандартных коэффициентов регрессии, К~{ — матрица, обратная корреляционной матрице «независимых» переменных, А — вектор-столбец корреляций «независимых» переменных с «зависимой» переменной. На практике регрессионный анализ начинается именно с вычисления стандартных коэффициентов регрессии.
Напомним, что в случае двумерной регрессии — при наличии всего одной независимой переменной, уравнение 15.3 имеет вид:
V- = г •х
^ I Ху I '
то есть стандартный коэффициент регрессии равен коэффициенту корреляции зависимой и независимой переменных. При наличии двух и более независимых переменных:
1Рх1 < К\
и р-коэффициент зависит не только от корреляции данной независимой и зависимой переменных, но и от того, коррелирует ли эта независимая переменная с другими независимыми переменными. Знак р-коэффициента соответствует знаку коэффициента корреляции данной «независимой» и «зависимой» переменной. Абсолютная величина Р-коэффициента является максимальной — равна коэффициенту корреляции с зависимой переменной, если данная независимая переменная не коррелирует ни с одной из других независимых переменных. Чем сильнее данная независимая переменная связана с другими независимыми переменными, тем меньше р-коэффициент.
Произведение коэффициента р, на коэффициент корреляции г!У этой переменной с «зависимой» переменной — это вклад данной переменной в дисперсию «зависимой» переменной. Ясно, что вклад переменной выше, если ее корреляция с зависимой переменной выше, а с другими независимыми переменными — ниже. Поэтому ценность независимой переменной для множественной регрессии определяется не только ее корреляцией с зависимой переменной (как в двумерной регрессии), но и ее «уникальностью» — слабой связью с другими независимыми переменными.
Если «зависимая» переменная представлена в г-значениях (дисперсия равна 1), то эта единичная дисперсия «зависимой» переменной Бу может быть выражена формулой:
Часть дисперсии «зависимой» переменной, обусловленная влиянием «независимых» переменных, — это коэффициент множественной детерминации (КМД), который равен коэффициенту множественной корреляции в квадрате или К1:
р
1СМД = /г2 = = 1 - А-
Соответственно, второй способ вычленить КМК:
Интерпретация КМД очевидна: это та часть дисперсии «зависимой» переменной, которая определяется «независимыми» переменными. Следовательно, (1 - КМД) — это дисперсия ошибки оценки. Например, если КМК = 0,8, то КМД = (КМК)2 = 0,64. Это означает, что 64% дисперсии «зависимой» переменной определяется исходными переменными, а 36% ее дисперсии относится к ошибке оценки.
Таким образом, основной показатель МРА — коэффициент множественной корреляции (К), который, подобно парному коэффициенту корреляции Пирсона, является мерой линейной взаимосвязи одной переменной с совокупностью других переменных. КМК «зависимой» переменной с набором «независимых» переменных, как и КМД, принимает только положительные значения, изменяясь в пределах от 0 до 1. Статистическая значимость КМК определяется по критерию /^-Фишера для соответствующих степеней свободы.
Таким образом, основными целями МРА являются:
ИСХОДНЫЕ ДАННЫЕ, ПРОЦЕДУРА И РЕЗУЛЬТАТЫ
Исходными данными для МРА является набор переменных, измеренных для выборки объектов (испытуемых). Одна из переменных определяется как «зависимая», остальные — как «независимые» переменные.
ПРИМЕР 15.1
Перед исследователем стоит задача предсказания успеваемости пяти абитуриентов поданным вступительных тестов (4 теста). Кроме того, его интересует, какие тесты обладают наибольшей предсказательной силой в отношении последующей успеваемости. В качестве исходных данных психолог имеет для каждого из 20 учащихся предыдущего набора средний балл отметок и 4 показателя тестирования. В его распоряжении имеются результаты применения тех же 4 тестов для пяти абитуриентов, и исследователь надеется предсказать для них средний балл успеваемости. Таким образом, исходными данными для МРА являются: средний балл отметок как «зависимая» переменная (У) и 4 «независимых» переменных — результатов тестов (Тез11, 1ез1 2, Гей 3, Гей 4) (табл. 15.1).
Таблица 15.1
Пример исходных данных для МРА
№ |
Гей 1 |
Гей 2 |
Гей 3 |
Гей 4 |
У |
У |
1 |
86,00 |
110,00 |
110,00 |
101,00 |
3,88 |
|
2 |
80,00 |
97,00 |
99,00 |
100,00 |
3,64 |
|
3 |
93,00 |
107,00 |
103,00 |
103,00 |
4,11 |
|
4 |
87,00 |
117,00 |
93,00 |
88,00 |
3,54 |
|
20 |
120,00 |
94,00 |
110,00 |
105,00 |
3,71 |
|
21 |
74,00 |
121,00 |
100,00 |
100,00 |
||
22 |
96,00 |
114,00 |
114,00 |
103,00 |
||
23 |
104,00 |
73,00 |
105,00 |
95,00 |
||
24 |
94,00 |
121,00 |
115,00 |
104,00 |
||
25 |
91,00 |
129,00 |
105,00 |
98,00 |
Первые 20 объектов — это учащиеся предыдущего набора, для которых известен средний балл успеваемости, последние 5 объектов — это абитуриенты, для которых известны только результаты тестирования. Последний столбец (У) — это оценки «зависимой» переменной, которые исследователь надеется получить в результате применения МРА. Корреляции исходных переменных приведены в табл. 15.2.
Таблица 15.2
Корреляция исходных данных для МРА
Гей 1 |
Гей 2 |
Гей 3 |
Гей 4 |
У |
|
Гей 1 |
1 |
-0,015 |
0,263 |
0,402 |
0,639 |
Гей 2 |
-0,015 |
1 |
0,356 |
0,317 |
0,552 |
Гей 3 |
0,263 |
0,356 |
1 |
0,772 |
0,706 |
Гей 4 |
0,402 |
0,317 |
0,772 |
1 |
0,736 |
У |
0,639 |
0,552 |
0,706 |
0,736 |
1 |
Строгих указаний о соотношении количества объектов N и количества признаков Р нет, но чем больше объем выборки, тем выше шансы получить статистически достоверные результаты.
Главное требование к исходным данным — отсутствие линейных взаимосвязей между переменными, когда одна переменная является линейной производной другой переменной. Таким образом, нельзя пользоваться суммой переменных или их средним арифметическим наряду с самими переменными. Соответственно, недопустимы переменные, коэффициент корреляции которых с любой другой переменной равен 1. Следует избегать включения в анализ переменных, корреляция между которыми близка к 1, так как сильно коррелирующая переменная не несет для анализа новой информации, добавляя излишний «шум».
Следующее требование — переменные должны быть измерены в метрической шкале (интервалов или отношений) и иметь нормальное распределение. При нарушении этого требования, однако, результаты могут быть полезны, если, конечно, соблюдать известную осторожность.
Желательно отбирать для МРА «независимые» переменные, сильно коррелирующие с «зависимой» переменной и слабо — друг с другом. Если «независимых» переменных много и наблюдается множество связей между ними, то перед МРА целесообразно провести факторный анализ этих «независимых» переменных с вычислением значений факторов для объектов (см. главу 16).
Практически во всех компьютерных программах анализ начинается с задания «зависимой» и «независимых» переменных, а также одного из методов МРА. Основные методы МРА:
Стандартный метод учитывает в МРА все «зависимые» переменные. Пошаговый метод обычно выступает в нескольких модификациях, основными из которых являются прямой и обратный метод.
Прямой пошаговый метод поочередно включает в регрессионное уравнение каждую переменную, начиная с наиболее тесно коррелирующей с «зависимой» переменной, до тех пор, пока ^-уровень значимости р-коэффициента последней из включенных переменных не превысит заданное значение (по умолчанию — 0,1). Обратный пошаговый метод поочередно исключает переменные из анализа, начиная с той, которая имеет наибольшее значение ^-уровня значимости Р-коэффициента, до тех пор, пока все оставшиеся переменные не будут иметь статистически значимые р-коэффициенты (по умолчанию р<0,1). Таким образом, пошаговые методы позволяют отсеивать несущественные для предсказания «независимые» переменные — те, Р-коэффициенты которых статистически не достоверны. Следует отметить, что разные варианты пошагового метода могут давать разные результаты, поэтому следует применить каждый из них и выбрать наиболее приемлемый конечный результат.
Основные результаты применения МРА:
К — коэффициент множественной корреляции;
Г — критерий Фишера и ^-уровень статистической значимости КМК;
К2 — квадрат КМК или КМД;
Р (Веш) — стандартизированные коэффициенты регрессии и /7-уровень их статистической значимости;
В — коэффициенты регрессии (регрессионного уравнения).
Дополнительно возможно вычисление оценок «зависимой» переменной (Ргеё1с1её Уа1ие§) и ошибок оценки (Ке§Миа1з).
Рассмотрим процедуру обработки, основные результаты и их интерпретацию, применив программу 8Р88 к данным примера 15.1.
ОБРАБОТКА НА КОМПЬЮТЕРЕ
Исходные данные (Ба*а Е<Шог) представляют собой 5 переменных (ьезь 1, ЬезЬ 2, ьезь 3, ЬезЬ 4, У) для 25 объектов; для последних 5 объектов значения Уне определены (табл. 15.1).
Рассмотрим наиболее важные результаты МРА.
Мойе1 Зиттагу(с)
МосЗе1 |
К |
Я Здиаге |
АсЗ^изЬей К Бдиаге |
зьа. Еггог оЕ (:Ье ЕзЫтаЬе |
1 |
. 886(а) |
.786 |
.729 |
.29023 |
2 |
.879(Ь) |
. 773 |
.731 |
.28914 |
а РгесЗгсЬогз : (СопзЬагИ: ) , ТЕЗТ4, ТЕ5Т2, ТЕЗТ1, ТЕЗТЗ Ь РгесИсЬогз: (СопзЬапЬ), ТЕБТ4, ТЕ5Т2, ТЕЗТ1 с БерепсЗепЬ УаггаЫе: У
АМОУА(с)
МосЗе1 |
Зит оЕ |
Здиагез |
сЗГ |
Меап |
Здиаге |
Р |
31д. |
|
1 |
Яедгезз1оп |
4 |
635 |
4 |
1 |
. 159 |
13.755 |
. 000 (а) |
Нез1<3иа1 |
1. |
264 |
15 |
084 |
||||
ТоЬа1 |
5 |
898 |
19 |
|||||
2 |
Яедгезз1оп |
4 |
560 |
3 |
1 |
. 520 |
18.183 |
.000(Ъ) |
Кез 1<3иа1 |
1 |
338 |
16 |
084 |
||||
ТоЬа! |
5 |
898 |
19 |
а РгесЗгсЬогз: (СопзЬапЬ), ТЕЗТ4, ТЕЗТ2, ТЕЗТ1, ТЕЗТЗ Ь РгесЗгсЬогз : (СопзЬапЬ) , ТЕЗТ4 , ТЕЗТ2 , ТЕЗТ1 с БерепсЗепЬ Уаг1аЫе: У
Эти две таблицы содержат наиболее общие результаты МРА для двух моделей (Моёе1): 1 — исходная модель, с включением всех переменных; 2 — окончательная модель, с исключенной переменной ьезьз. Интерпретации подлежат: в первой таблице — КМК (К) и КМД (К. Зциаге); во второй таблице — значение критерия ^-Фишера и его /7-уровень значимости. КМК для окончательной модели статистически достоверен, поэтому модель множественной регрессии может быть содержательно интерпретирована. КМД достаточно большой, регрессионная модель объясняет более 77% дисперсии зависимой переменной, и результаты предсказания могут быть приняты во внимание.
СоеЕЕ1с1епЬ8(а)
Мойе1 |
№з(:апс1агс112ес1 |
ЗЬапйагсИгесИ |
51д. |
|||
Сое{Е1с1епЬз |
Сое{{1с1еп<;з |
|||||
В |
зъа. |
Веса |
||||
Еггог |
||||||
1 |
(СопвЬапЪ) |
-1.486 |
.871 |
-1.705 |
. 109 |
|
ТЕ5Т1 |
.011 |
. 004 |
.384 |
2.825 |
.013 |
|
ТЕ5Т2 |
. 012 |
. 005 |
.334 |
2 .565 |
. 022 |
|
ТЕ5ТЗ |
. 014 |
.015 |
. 196 |
. 938 |
.363 |
|
ТЕ5Т4 |
.017 |
.012 |
.295 |
1.380 |
. 188 |
|
2 |
(СопзЬапЬ) |
-1.049 |
.733 |
-1.430 |
. 172 |
|
ТЕ8Т1 |
.011 |
. 004 |
.379 |
2 . 800 |
.013 |
|
ТЕ5Т2 |
.014 |
. 005 |
.368 |
2 . 949 |
.009 |
|
ТЕ5Т4 |
.026 |
. 008 |
.445 |
3 .161 |
.006 |
а ОерепйепЪ \/аг1аЫе: У
Эта таблица содержит величины не стандартизованных (В) и стандартизованных (Ве1а) коэффициентов регрессии, а также критерии /-Стьюдента (I) и/7-уровни позволяющие определить их статистическую значимость.
Отметим, что во внимание могут быть приняты только те регрессионные коэффициенты, которые являются статистически значимыми.
Показателем вклада каждой из переменных в регрессионную модель служат их р-коэффициенты. В результирующей модели (2) для предсказания остаются три переменные: переменная 1ез1: 3 исключена. Представляет интерес анализ причин исключения переменной 1ез13 из модели. Как видно из табл. 15.2, эта переменная весьма существенно коррелируете зависимой переменной. Однако она сильно связана и с переменной 1ез14, что обусловливает существенное снижение ее р-коэффициента: в исходной модели (1) он наименьший из всех остальных (р = 0,196). Исключение переменной 1ез1 3 повышает предсказательную ценность переменной 1ез1: 4.
^-коэффициенты используются для предсказания значений зависимой переменной — путем вычисления ее оценок по уравнению регрессии, в соответствии с формулой 15.2:
У= -1,049 + 0,026(1ез14) + 0,0П(1еа 1) + 0,014(1ей 2). Фрагмент таблицы (Ба(а ЕйКог) с оценками зависимой переменной (У)
Гез! 1 |
ГезГ 2 |
1е51 3 |
(ей 4 |
У |
рге_1 |
|
1 |
86,00 |
110,00 |
110,00 |
101,00 |
3,88 |
3,98 |
21 |
74,00 |
121,00 |
100,00 |
100,00 |
3,98 |
|
22 |
96,00 |
114,00 |
114,00 |
103,00 |
4,19 |
|
23 |
104,00 |
73,00 |
105,00 |
95,00 |
3,52 |
|
24 |
94,00 |
121,00 |
115,00 |
104,00 |
4,29 |
|
25 |
91,00 |
129,00 |
105,00 |
98,00 |
4,22 |
В связи с тем, что назначено сохранение оценок зависимой переменной (см. шаг 4), в таблице исходных данных (Ба1а ЕсШог) появилась новая переменная рге_1 — оценки зависимой переменной. Они вычислены по указанной формуле для всех 25 объектов и в данном примере могут служить для предсказания успеваемости 5 абитуриентов.
Глава 16
ФАКТОРНЫЙ АНАЛИЗ
НАЗНАЧЕНИЕ
Возникновение и развитие факторного анализа тесно связано с измерениями в психологии. Длительное время факторный анализ и воспринимался как математическая модель в психологической теории интеллекта. Лишь начиная с 50-х годов XX столетия, одновременно с разработкой математического обоснования факторного анализа, этот метод становится общенаучным. К настоящему времени факторный анализ является неотъемлемой частью любой серьезной статистической компьютерной программы и входит в основной инструментарий всех наук, имеющих дело с многопараметрическим описанием изучаемых объектов, таких, как социология, экономика, биология, медицина и другие.
Основная идея факторного анализа была сформулирована еще Ф. Гальтоном, основоположником измерений индивидуальных различий. Она сводится к тому, что если несколько признаков, измеренных на группе индивидов, изменяются согласованно, то можно предположить существование одной общей причины этой совместной изменчивости — фактора как скрытой (латентной), непосредственно не доступной измерению переменной. Далее К. Пирсон в 1901 году выдвигает идею «метода главных осей», а Ч. Спирмен, отстаивая свою однофакторную концепцию интеллекта, разрабатывает математический аппарат для оценки этого фактора, исходя из множества измерений способностей. В своей работе, опубликованной в 1904 году, Ч. Спирмен показал, что если ряд при- знаков попарно коррелируют друг с другом, _ то может быть составлена система линейных уравнений, связывающих все эти признаки, один общий фактор «общей одаренности» и по одному специфическому фактору «специальных способностей» для каждой переменной. В 1930-х годах Л. Тер-
Фактор — скрытая причина согласованной изменчивости наблюдаемых переменных
стоун впервые предлагает «многофакторный анализ» для описания многочисленных измеренных способностей меньшим числом общих факторов интеллекта, являющихся линейной комбинацией этих исходных способностей. С 1950-х годов, с появлением компьютеров, факторный анализ начинает очень широко использоваться в психологии при разработке тестов, обоснования структурных теорий интеллекта и личности. При этом исследователь начинает с множества измеренных эмпирических показателей, которые при помощи факторного анализа группируются по факторам (изучаемым свойствам). Факторы получают интерпретацию по входящим в них переменным, затем отбираются наиболее «весомые» показатели этих факторов, отсеиваются малозначимые переменные, вычисляются значения факторов для испытуемых и сопоставляются с внешними эмпирическими показателями изучаемых свойств.
В дальнейшем, по мере развития математического обеспечения факторного анализа, накопления опыта его использования, прежде всего в психологии, задача факторного анализа обобщается. Как общенаучный метод, факторный анализ становится средством для замены набора коррелирующих измерений существенно меньшим числом новых переменных (факторов). При этом основными требованиями являются: а) минимальная потеря информации, содержащейся в исходных данных, и б) возможность представления (интерпретации) факторов через исходные переменные.
Таким образом, главная цель факторного анализа — уменьшение размерности исходных данных с целью их экономного описания при условии минимальных потерь исходной информации. Результатом факторного анализа является переход от множества исходных переменных к существенно меньшему числу новых переменных — факторов. Фактор при этом интерпретируется как причина совместной изменчивости нескольких исходных переменных.
Если исходить из предположения о том, что корреляции могут быть объяснены влиянием скрытых причин — факторов, то основное назначение факторного анализа — анализ корреляций множества признаков.
ПРИМЕР 16.1
Рассмотрим результаты факторного анализа на простом примере. Предположим, исследователь измерил на выборке из 50 испытуемых 5 показателей интеллекта: счет в уме, продолжение числовых рядов, осведомленность, словарный запас, установление сходства. Все показатели статистически значимо взаимосвязаны на уровне р < 0,05, кроме показателя № 4 с № 1 и 2 (табл. 16.1).
Табл и ца 16.1
Матрица корреляций пяти показателей интеллекта
№ |
Показатели |
1 |
2 |
3 |
4 |
5 |
1 |
Счет в уме |
1,00 |
0,88 |
0,33 |
0,23 |
0,42 |
2 |
Числовые ряды |
0,88 |
1,00 |
0,32 |
0,24 |
0,35 |
3 |
Осведомленность |
0,33 |
0,32 |
1,00 |
0,58 |
0,58 |
4 |
Словарный запас |
0,23 |
0,24 |
0,58 |
1,00 |
0,54 |
5 |
Сходство |
0,42 |
0,35 |
0,58 |
0,54 |
1,00 |
Та б л и ц а 16.2
Факторные нагрузки после варимакс-вращения
Исходные переменные |
Факторные нагрузки |
а2 (общность) |
|
Ру |
Рг |
||
1 |
0,97 |
0,20 |
0,99 |
2 |
0,86 |
0,20 |
0,78 |
3 |
0,18 |
0,76 |
0,62 |
4 |
0,09 |
0,74 |
0,56 |
5 |
0,26 |
0,69 |
0,55 |
Собственное значение |
1,79 |
1,70 |
3,5 |
Доля дисперсии |
0,36 |
0,34 |
0,7 |
Применив факторный анализ, исследователь выделил два фактора. Основной результат, который подлежит интерпретации исследователем, — таблица факторных нагрузок после варимакс-вращения (табл. 16.2). Не рассматривая пока шаги, приводящие к этому результату, попытаемся проинтерпретировать полученные данные. В нашем примере по фактору 1 (У^) максимальные нагрузки имеют переменные 1 и 2. Следовательно, фактор 1 и определяется этими переменными. Поскольку переменная 1 — счет в уме, а переменная 2 — продолжение числового ряда, то фактору 1 может быть присвоено название «арифметические способности», как показателю легкости оперирования числовым материалом. Точно так же фактору 2 можно присвоить название «вербальные способности», как показателю словесного понимания. Нетрудно заметить, что переменные, определяющие фактор, сильнее связаны друг с другом, чем с другими переменными (табл. 16.1). Так, переменные 1 и 2, определяющие фактор 1, сильнее связаны друг с другом, чем с переменными 3, 4 и 5. Таким образом, за взаимосвязью пяти исходных измерений способностей при помощи факторного анализа обнаруживается действие двух латентных переменных (факторов).
Интерпретация фактора через исходные переменные
Интерпретация факторов — одна из основных задач факторного анализа. Ее решение заключается в идентификации факторов через исходные переменные. Эта идентификация и осуществляется по результатам обработки, представленным в табл. 16.2.
Основное содержание табл. 16.2 — величины оп ... о25 — факторные нагрузки переменных 1 ... 5 (строки) по факторам 1 и 2 (столбцы). Факторные нагрузки — аналоги коэффициентов корреляции, показывают степень взаимосвязи соответствующих переменных и факторов: чем больше абсолютная величина факторной нагрузки, тем сильнее связь переменной с фактором, тем больше данная переменная обусловлена действием соответствующего фактора. Каждый фактор идентифицируется по тем переменным, с которыми он в наибольшей степени связан, то есть по переменным, имеющим по
этому фактору наибольшие нагрузки. Идентификация фактора заключается, как правило, в присвоении ему имени, обобщающего по смыслу наименования входящих в него переменных.
Если исследователя интересует только структура измеренных признаков, на этом факторный анализ завершается. Продолжая факторный анализ, исследователь далее может вычислить значения факторов для испытуемых, например, с целью их дифференциации по преобладанию арифметических или вербальных способностей.
Выбирая факторный анализ как средство изучения корреляций, исследователь должен отдавать себе отчет в том, что это один из самых сложных и трудоемких методов. Зачастую нет веских оснований предполагать наличие факторов как скрытых причин изучаемых корреляции, и задача заключается лишь в обнаружении группировок тесно связанных переменных. Тогда целесообразнее вместо факторного анализа использовать кластерный анализ корреляций (см. главу 19). Помимо простоты, кластерный анализ обладает еще одним преимуществом: его применение не связано с потерей исходной информации о связях между переменными, что неизбежно при факторном анализе. И уже после выделения групп тесно связанных переменных можно попытаться применить факторный анализ для их объяснения.
Итак, можно сформулировать основные задачи факторного анализа:
МАТЕМАТИКО-СТАТИСТИЧЕСКИЕ ИДЕИ И ПРОБЛЕМЫ МЕТОДА
Анализ главных компонент и факторный анализ
Модель главных компонент лежит в основе большинства методов факторного анализа и часто рассматривается как один из его самостоятельных вариантов. Анализ главных компонент преобразует набор коррелирующих исходных переменных в другой набор — некоррелирующих переменных. Проще всего понять суть этого метода, привлекая геометрические представления.
Предположим, у нас имеются две положительно коррелирующие переменные Хи У, измеренные на группе объектов. Тогда график двумерного распределения (рассеивания) этих объектов в осях измеренных признаков (координаты объектов заданы значениями признаков) будет представлять собой эллипс, так как большим значениям переменной X будут соответствовать большие значения переменной У и наоборот (рис. 16.1). Главная ось эллипса Мх — это прямая, вдоль которой будет наблюдаться наибольший разброс данных. Вдоль второй оси эллипса М2, перпендикулярной первой и проходящей через ее середину, будет наблюдаться наименьший разброс данных.
Если перед нами стоит задача представления объектов (точек) в терминах только одной размерности (переменной), то главная ось эллипса является наиболее подходящей, так как вдоль нее объекты отличаются друг от друга лучше (дисперсия больше), чем вдоль любой другой прямой, в том числе и вдоль отдельно оси X или У. Анализ главных компонент в отношении этих двух признаков и состоит в переходе от них к главной компоненте, соответствующей главной оси эллипса, и в представлении объектов в значениях проекций объектов на эту ось (главную компоненту). Иначе говоря, происходит переход от координат каждого объекта по двум осям (X, У) к их координатам только по одной оси Мх — главной компоненте (рис. 16.1). Отметим, что в случае отсутствия взаимосвязи двух признаков главной компоненты просто не существует, так как обе оси (компоненты) являются равнозначными.
Рис. 16.1. Компоненты Мх и М2 двумерного распределения признаков Хи У
Анализ главных компонент можно представить как преобразование информации, содержащейся в исходных данных. Так, определяя главную компоненту как направление, в котором наблюдается наибольший разброс объектов, представляя объекты в единицах измерения по этой оси, мы теряем минимум информации об отличии объектов друг от друга. Чем сильнее взаимосвязь двух переменных, тем меньше исходной информации теряется при переходе от двух переменных к одной главной компоненте. Если две переменные не коррелируют, то компоненты (оси) являются равнозначными по информативности, и невозможно определить одну из них как «главную».
При наличии более двух коррелирующих переменных принцип определения главных компонент тот же. В осях трех и более переменных график разброса объектов будет представлять собой эллипсоид (овальное тело) в пространстве трех и более измерений. Первая ось этого эллипсоида пройдет по его наибольшему диаметру, вторая — по наибольшему диаметру в плоскости, рассекающей эллипсоид посередине и перпендикулярно первой оси, и так далее. Количество осей этого эллипсоида будет равно количеству переменных, и в направлении каждой последующей оси будет все меньший и меньший разброс наблюдений. При этом количество компонент, которые исследователь выбирает как «главные», определяется произвольно. Таким образом, анализ главных компонент решает задачу сокращения количества переменных при условии сохранения максимальной доли дисперсии наблюдений.
Анализ главных компонент является исходной процедурой многих методов факторного анализа и может рассматриваться как их упрощенный аналог. Поэтому более подробно рассмотрим на его примере наиболее важные понятия факторного анализа.
В основе анализа главных компонент лежит математический метод нахождения собственных значений и собственных векторов корреляционной матрицы. Не останавливаясь на определениях и процедурах этого метода, отметим то, что действительно имеет существенное значение для дальнейшего понимания основ факторного анализа. В процессе компонентного анализа решается уравнение (в матричной форме):
К = АА\ (16.1)
где К — исходная матрица корреляций; А — матрица, каждый элемент которой аш — компонентная нагрузка переменной \ (строка) по компоненте к (столбец); А' — транспонированная матрица А. Уравнение 16.1 Л. Терстоун назвал «фундаментальной факторной теоремой» (Г. Харман, 1972). Результатом решения этого уравнения является матрица компонентных нагрузок А.
Рассмотрим важные особенности матрицы компонентных нагрузок на примере компонентного анализа корреляционной матрицы, представленной втабл. 16.1. Решение уравнения 16.1 позволяет получить матрицу компонентных нагрузок (табл. 16.3).
Таблица 16.3
Компоненты корреляционной матрицы показателей интеллекта
Переменная |
Компоненты |
||||
1 |
2 |
3 |
4 |
5 |
|
1 |
0,77 |
-0,58 |
0,00 |
0,03 |
-0,26 |
2 |
0,75 |
-0,60 |
-0,13 |
0,00 |
0,25 |
3 |
0,75 |
0,41 |
-0,06 |
-0,51 |
-0,01 |
4 |
0,68 |
0,53 |
-0,39 |
0,33 |
-0,02 |
5 |
0,78 |
0,30 |
0,52 |
0,18 |
0,05 |
Собственное значение (X) |
2,78 |
1,24 |
0,45 |
0,41 |
0,13 |
Доля дисперсии |
0,56 |
0,25 |
0,09 |
0,08 |
0,02 |
Накопленная доля дисперсии |
0,56 |
0,81 |
0,90 |
0,98 |
1,00 |
Собственные значения выделяются в порядке их убывания в соответствии с осями эллипсоида разброса наблюдений. Количество выделяемых компонент (и собственных значений) равно числу переменных. Сумма всех собственных значений равна количеству переменных. Отметим, что если бы все корреляции между исходными переменными были бы равны нулю, то каждое собственное значение равнялось бы 1. Чем выше корреляции между переменными, тем больше предыдущие собственные значения и меньше — последующие. Собственное значение, деленное на количество переменных, есть доля дисперсии, соответствующая данной компоненте. Все компоненты исчерпывают 100% совокупной дисперсии переменных.
Каждый элемент а1к матрицы А — это компонентная нагрузка переменной / (строка) по компоненте к (столбец). Компонентная (как и факторная) нагрузка — аналог коэффициента корреляции, мера связи переменной / и компоненты к. Соответственно, квадрат компонентной нагрузки (как и корреляции) приобретает смысл части дисперсии, в данном случае — части дисперсии переменной, объясняемой соответствующей компонентой. Сумма квадратов всех компонентных нагрузок по строке равна 1, полной дисперсии переменной (в ^-значениях).
Таким образом, полная единичная дисперсия каждой переменной разложена по компонентам. Сумма квадратов всех компонентных нагрузок по столбцу равна собственному значению данной компоненты:
р
Я/ = Е°/У' (16.2)
м
где / — номер компоненты, ] — номера переменных (количеством Р).
Как было указано, это собственное значение, деленное на количество переменных, есть доля дисперсии, соответствующая данной компоненте, и используется как показатель информативности компоненты.
Уравнение 16.1 позволяет восстановить коэффициенты корреляции по матрице компонентных нагрузок А, так как произведение этой матрицы на саму себя транспонированную дает корреляционную матрицу. В соответствии с правилом умножения матриц, каждый коэффициент корреляции г^ может быть восстановлен через компонентные нагрузки, как сумма всех (по строке) произведений нагрузок для этих двух переменных по каждой компоненте. Восстановленный коэффициент корреляции вычисляется по формуле:
м
^ = (16.3)
к=\
где I,] — номера переменных в корреляционной матрице; к — номер компоненты; М — количество компонент; а — компонентные нагрузки. Так, восстановленная корреляция между переменными 3 и 5:
/■35= 0,75-0,78 + 0,41-0,30+ (-0,06)0,52 + (-0,51)0,18 + (-0,01)0,05 = 0,58.
Заметим, что диагональный элемент корреляционной матрицы, как корреляция признака с самим собой (г =/), равен сумме квадратов всех компонентных нагрузок данной переменной — по строке, то есть 1.
Исследователь может воспользоваться анализом главных компонент как упрощенным вариантом факторного анализа. Тогда он выберет не все компоненты, а только главные, объясняющие большую часть дисперсии. В данном случае главными будут первые две компоненты, объясняющие 81% суммарной дисперсии переменных.
Переход к главным компонентам позволяет ввести еще одно важное понятие факторного анализа. Общность (СоттипаИгу) — часть дисперсии переменной, объясняемая главными компонентами (факторами), вычисляется как сумма квадратов нагрузок по строке:
(16.4)
где / — номер переменной, к — номер (главной) компоненты. Например, если по таблице 16.3 выделяются две главные компоненты, то общность переменной 1: к? = 0,772 + (-0,58)2 = 0,93, а общность переменной 4: /г42 = 0,682 + 0,532 = 0,74. То есть первые две компоненты исчерпывают 93% дисперсии переменой 1 и 74% дисперсии переменной 4.
Восстановленные только по главным компонентам коэффициенты корреляции (по формуле 16.3) будут меньше исходных по абсолютной величине, а на диагонали восстановленной корреляционной матрицы будут не 1, а величины общностей.
Анализ главных компонент в «чистом виде» используется для решения одной из ключевых проблем факторного анализа — проблемы числа факторов.
Принцип выделения «главных факторов» в факторном анализе тот же, что и при анализе главных компонент. Но в отличие от компонентного анализа факторный анализ направлен на объяснение корреляций между переменными, а не только компонент дисперсии.
(16.5)
Факторная структура (Расюг Зпиаиге Магпх) — основной результат применения факторного анализа. Элементы факторной структуры — факторные нагрузки (РасХог ЬоасНщз) переменных а1к, аналогичные компонентным нагрузкам (см. табл. 16.3). Однако основное требование их получения, в отличие от анализа главных компонент, — максимально полное отражение исходных коэффициентов корреляции. Поэтому оснонное уравнение факторного анализа:
К = А-А'при условии Л—> К,
где К — исходная матрица интеркорреляций; К — матрица восстановленных коэффициентов корреляции; А — матрица факторных нагрузок размерностью, столбцы которой — факторные нагрузки /^переменных по Мфакторам; А' — транспонированная матрица А. Отличие уравнения 16.5 от сходного с ним уравнения компонентного анализа (16.1) в том, что матрица факторных нагрузок А вычисляется таким образом, чтобы восстановленные коэффициенты корреляции минимально отличались от исходных корреляций.
Рассмотрим искомую факторную структуру в общем виде, как матрицу факторных нагрузок (табл. 16.4). В этой таблице Р строк, соответствующих переменным, и М столбцов — факторов. Значение аш — это факторная на
грузка переменной / по фактору к. Соотношения величин в этой таблице идентично соотношениям в таблице компонентных нагрузок. Собственное значение (ЕщетаЫе) каждого фактора Хк, по формуле 16.2, равно сумме квадратов факторных нагрузок всех переменных по фактору к (по столбцу). Общность каждой переменной к}, в соответствии с формулой 16.4, равна сумме квадратов факторных нагрузок переменной / по всем факторам. Коэффициент корреляции между любыми двумя переменными может быть восстановлен по этой таблице, как сумма произведений факторных нагрузок по соответствующим строкам (по формуле 16.3).
Таблица 16.4
Факторная структура в общем виде
(М — число факторов, Р — число переменных)
1 |
2 |
к |
м |
кг |
|||
1 |
«11 |
а12 |
«14 |
а\м |
к] |
||
2 |
«21 |
а22 |
а2к |
а2м |
к] |
||
1 |
Я/1 |
ап |
«,* |
«»/ |
к) |
||
Р |
аР[ |
ап |
аРк |
арм |
к} |
||
X |
X, |
Х2 |
К |
Алгоритм факторного анализа обеспечивает максимально возможное приближение вычисленных, или восстановленных, коэффициентов корреляции к исходным корреляциям. Это достигается варьированием числа факторов и диагональными элементами корреляционной матрицы, на которых располагаются не единицы, как в компонентном анализе, а значения общностей.
Проблема числа факторов
Это первая проблема при проведении факторного анализа. Обычно заранее не известно, сколько факторов необходимо и достаточно для представления данного набора переменных. Сама же процедура факторного анализа предполагает предварительное задание числа факторов. Поэтому исследователь должен заранее определить или оценить их возможное количество. Для этого на первом этапе факторного анализа обычно применяют анализ главных компонент и используют график собственных значений (Зсгее р1о1).
На рис. 16.2 представлен график собственных значений для компонент из табл. 16.3. Компонентные нагрузки интерпретации на данном этапе не подлежат, нас интересуют только величины собственных значений.
Для определения числа факторов были предложены два критерия. Первый — критерий Кайзера: число факторов равно числу компонент, собственные значения которых больше 1.
Второй способ определения числа факторов — критерий отсеивания Р. Кеттелла (зсгее—1ез1), требует построения графика собственных значений
Рис. 16.2. График собственных значений для пяти показателей интеллекта
(компьютерные программы предлагают этот график при выборе метода главных компонент — зсгее р1о{). Количество факторов определяется приблизительно по точке перегиба на графике собственных значений до его выхода на пологую прямую после резкого спада. При этом проверяются три гипотезы: если К— точка перегиба, то возможное количество факторов равно К- 1, К\\ К+ 1.
По первому критерию (Кайзера) в нашем примере число факторов равно двум, так как первые два собственных значения больше 1. По второму критерию (Р. Кеттелла) — от двух до четырех, так как точке перегиба соответствует третья компонента (см. рис. 16.2).
При определении числа факторов на практике следует помнить, что указанные критерии являются лишь примерным ориентиром. Окончательное решение о числе факторов принимается только после интерпретации факторов.
Проблема общности
Это вторая главная проблема факторного анализа. Единичная дисперсия каждой переменной представлена в факторном анализе как сумма ее общности и характерности:
1 = И2 + е2,
I I'
где к2 — общность переменной с номером /'; е2 — ее характерность.
Общность — это часть дисперсии переменной, обусловленная действием общих факторов. Характерность — часть ее дисперсии, обусловленная спецификой данной переменной и ошибками измерения. Иначе говоря, общность — это полный вклад всех факторов в единичную дисперсию переменной, а характерность — это разность полной единичной дисперсии переменной и ее общности. Общность переменной I равна сумме квадратов ее нагрузок по всем М факторам (по строке факторных нагрузок):
м
к=1
Полнота факторизации — важное понятие факторного анализа, вытекающее из определения общности. Любой элемент факторной структуры — факторная нагрузка переменной, возведенная в квадрат, — приобретает смысл доли дисперсии переменной, обусловленной данным фактором. Суммируя эти доли по строке, мы получаем общность — долю дисперсии переменной, обусловленную влиянием всех общих факторов.
Суммарная дисперсия всех переменных есть сумма единичных дисперсий всех признаков, что равно просто количеству признаков. Суммируя доли дисперсии всех переменных по одному фактору, мы получаем суммарную дисперсию всех переменных, обусловленную действием этого фактора. Разделив суммарную дисперсию, обусловленную действием данного фактора, на количество признаков, мы получим долю дисперсии, обусловленную данным фактором, или информативность (мощность) фактора. Сумма квадратов всех элементов факторной структуры — факторных нагрузок — равна сумме всех общностей и суммарной дисперсии всех переменных, обусловленной общими факторами. Эта величина, деленная на количество признаков, известна как полнота факторизации:
М 1 М 1 Р 1 М Р
к=1 г к=1 г 1=1 г к=М=1
где Ук — мощность фактора с номером к\ Кк — собственное число фактора с номером /; к} — общность переменной /; а}к — вклад фактора / в переменную к\ М — число факторов; Р — число переменных.
Понятно, что качество факторного анализа тем выше, чем выше полнота факторизации. И эта величина является одним из важных показателей при выборе пользователем варианта решения, наряду с показателем того, насколько полно воспроизводятся коэффициенты корреляции. Надо отметить, что четких статистических критериев полноты факторизации не существует. Тем не менее, низкие ее значения, например меньше 0,7, свидетельствуют о желательности сокращения количества признаков или увеличения количества факторов.
Вообще говоря, проблема общностей заключается в том, что они, как и число общих факторов, не известны до начала анализа, но должны каким-то образом задаваться, так как величины факторных нагрузок зависят от величин общностей. Отметим, что в компонентном анализе этой проблемы не существует: общность каждой переменной равна 1, при условии выделения всех Р компонент. Различия в методах факторного анализа и определяются тем, как решается проблема общностей.
Методы факторного анализа
Методы факторного анализа — это различные способы получения факторной структуры при заданном числе факторов. Эти способы, как уже говорилось, отличаются решением проблемы общностей. Рассмотрим наиболее часто применяемые методы: анализ главных компонент, метод главных факторов, факторный анализ образов (общности равны квадрату КМК), метод не взвешенных наименьших квадратов, обобщенный метод наименьших квадратов и метод максимального правдоподобия.
Анализ главных компонент (Рппс1ра1 СотропеШз) иногда используется в качестве факторного анализа, хотя это и не вполне корректно. При использовании этого метода общность каждой переменной получается автоматически, путем суммирования квадратов ее нагрузок по всем главным компонентам. Вопрос о приближении восстановленных коэффициентов корреляции к исходным корреляциям не решается. В результате факторная структура искажается в сторону преувеличения абсолютных величин факторных нагрузок.
Факторный анализ образов (общности равны квадрату КМК) (1та§е Рас1о- пп§) — это метод главных компонент, применяемый к так называемой редуцированной корреляционной матрице, у которой вместо единиц на главной диагонали располагаются оценки общностей. Общность каждой переменной оценивается предварительно, как квадрат коэффициента множественной корреляции (КМК) этой переменной со всеми остальными. Такая оценка, с точки зрения теоретиков факторного анализа, приводит к более точным результатам, чем в анализе главных компонент. Но значения общностей недооцениваются, что также приводит к искажениям факторной структуры, хотя и меньшим, чем в предыдущем случае.
Метод главных осей (Рппс1ра1 Ахи Рас(опп§), позволяет получить более точное решение. На первом шаге общности вычисляются по методу главных компонент. На каждом последующем шаге собственные значения и факторные нагрузки вычисляются исходя из предыдущих значений общностей. Окончательное решение получается при выполнении заданного числа итераций или достижении минимальных различий между общностями на данном и предыдущем шагах.
Метод не взвешенных наименьших квадратов (ШшщШей 1еа$( хциагех) — минимизирует квадраты остатков (разностей) исходной и воспроизведенной корреляционных матриц (вне главной диагонали). На первом шаге оцениваются общности через квадрат КМК. Затем вычисляется факторная структура и восстанавливаются коэффициенты корреляции. Проверяется разность квадратов исходных и вычисленных корреляций. За новые значения общностей принимаются вычисленные по полученной факторной структуре. На втором шаге вычисляется новая факторная структура, и снова проверяется соответствие исходных и восстановленных коэффициентов корреляции. Процесс повторяется многократно до тех пор, пока не достигается минимально возможная разница между исходными и вычисленными корреляциями при заданном числе факторов. Метод, по определению, дает минимальные ошибки факторной структуры при фиксированном числе факторов. Реализация метода в компьютерных программах позволяет проверить расхождения между исходными и вычисленными корреляциями. Наличие многочисленных расхождений может служить дополнительным аргументом в пользу увеличения числа факторов.
Обобщенный метод наименьших квадратов (СепегаГцес! 1еаз1 хдиагех) — отличается от предыдущего тем, что для каждой переменной вводятся специальные весовые коэффициенты. Чем больше общность переменной, тем в большей степени она влияет на факторную структуру (имеет больший вес). Это соответствует основному принципу статистического оценивания, по которому менее точные наблюдения учитываются в меньшей степени. В этом — основное преимущество этого метода перед остальными.
Метод максимального правдоподобия (Махтит ИкеИНоой) также направлен на уменьшение разности исходных и вычисленных корреляций между признаками. Дополнительно этот метод позволяет получить важный показатель полноты факторизации — статистическую оценку «качества подгонки». Мерой качества является оценка различия исходных и вычисленных коэффициентов корреляции по х2-критерию, значимость которого определяется в зависимости от числа факторов и количества переменных. Если критерий показывает значимое отклонение при Л/-факторной модели, следует перейти к модели с М+1 факторами, и так до тех пор, пока отклонение исходных и вычисленных корреляций перестанет быть статистически значимым по ^-критерию. Таким образом, х2-критерий позволяет определить минимально допустимое количество факторов для данного числа переменных. Однако следует помнить, что этот критерий, как и остальные формальные критерии, является дополнительным. Окончательное же решение о числе факторов принимается после содержательной интерпретации факторной структуры.
Вряд ли возможно дать общие рекомендации о преимуществе или недостатке того или иного метода. Можно лишь отметить, что анализ главных компонент дает наиболее грубое решение, а метод максимального правдоподобия позволяет статистически оценить минимально возможное число факторов для данного набора переменных. По-видимому, в каждом конкретном случае стоит сравнивать результаты применения разных методов и выбирать тот, который позволяет получить наиболее простую и доступную интерпретации факторную структуру.
Проблема вращения и интерпретации
Это третья основная проблема факторного анализа, решение которой связано с геометрическим представлением факторной структуры. Необходимость решения этой проблемы обусловлена тем, что, как правило, результаты факторизации непосредственно не подлежат интерпретации. В то же время ценность результата факторного анализа определяется прежде всего возможностью его однозначной интерпретации.
Рассмотрим результат применения метода главных осей к данным о пяти показателях способностей. Из табл. 16.5 видно, что все переменные имеют наибольшие нагрузки по первому фактору, и невозможно определить, какие переменные идентифицируют второй фактор. То есть данная факторная структура не поддается интерпретации. Для ответа на вопрос о распределении пе-
Табл ица 16.5 Факторная структура пяти показателей способностей (метод главных осей, до вращения)
Переменные |
Факторные нагрузки а,к |
Общность к! |
|
Ъ |
|||
1 |
0,807 |
-0,482 |
0,88 |
2 |
0,774 |
-0,481 |
0,83 |
3 |
0,661 |
0,416 |
0,61 |
4 |
0,580 |
0,470 |
0,56 |
5 |
0,675 |
0,317 |
0,56 |
Собственное значение \к |
2,478 |
0,959 |
3,44 |
Доля дисперсии |
0,496 |
0,192 |
0,69 |
ременных по факторам и необходимо решить проблему вращения факторов относительно признаков.
Факторную структуру графически можно представить в виде точек-признаков в пространстве М факторов. Положение каждой точки задается факторными нагрузками как координатами этой точки по соответствующим осям- факторам. Для нашего примера такое графическое изображение факторной структуры представлено на рис. 16.3.
Рис. 16.3. График пяти показателей интеллекта в осях двух факторов до вращения
Фактор 1
0,6" 0,4- 0,2-
-0,2- -0,4- -0,6-
см о.
Расстояние каждой точки от начала координат или длина вектора-пере- менной равны сумме квадратов всех координат этой точки (конца вектора- переменной). Поскольку координаты — это факторные нагрузки, то длина каждого вектора равна общности соответствующей переменной.
Без доказательства укажем, что коэффициент корреляции между каждой парой переменных равен косинусу угла между соответствующими векторами в пространстве общих факторов. Иначе говоря, чем выше корреляция, тем меньше угол между соответствующими переменными.
Указанные соотношения между переменными в осях факторов никак не изменятся, если мы повернем оси факторов на любой угол относительно переменных, при условии соблюдения взаимной ортогональности (перпендикулярности) факторов. Из этого следует вывод, что мы можем поворачивать факторы относительно переменных как угодно, соблюдая ортогональность факторов. При этом наиболее предпочтительно, чтобы каждая переменная в результате вращения оказалась вблизи оси фактора, иными словами, имела бы максимальную нагрузку по одному фактору и минимальные — по всем остальным. Только в этом случае каждая переменная будет соотнесена только с одним фактором, что и требуется для интерпретации факторной структуры.
Каждая переменная имеет большую нагрузку только по одному из факторов
В нашем примере (рис. 16.3) желателен поворот осей факторов по часовой стрелке так, чтобы фактор 1 прошел вблизи переменных 1 и 2, а фактор 2 — вблизи переменных 3—5. Решение, при котором каждая переменная имеет большую нагрузку только по одному фактору, а по остальным ее нагрузки близки к нулю, называется простой структурой.
На заре появления многофакторного анализа проблема вращения решалась графически. Чертились графики факторной структуры — по одному для каждой пары факторов. Затем делали графический поворот осей факторов относительно переменных, после чего линейкой измеряли новые проекции переменных на эти оси. Таким образом получали факторную структуру после вращения.
В настоящее время используются аналитические способы вращения, реализованные во всех компьютерных программах факторного анализа. Работа аналитических методов подобна геометрическому вращению «вручную». Каждая пара факторов поворачивается относительно переменных до тех пор, пока не достигается наиболее возможная простота структуры. В одних случаях критерием простоты является факторная сложность переменных (квартимакс), в других — индекс сложности каждого фактора (варимакс), где факторная сложность переменной пропорциональна числу общих факторов, связанных с ней, а индекс сложности фактора пропорционален числу переменных, с ним связанных. Наиболее широко применяется вращение, где на каждом шаге простота структуры определяется по критерию варимакс Г. Кайзера — вари- макс-вращение.
Результат применения варимакс-вращения к факторной структуре из табл. 16.5 представлен в табл. 16.6; графический результат — на рис. 16.4.
0,80" 0,70" 0,60- 0,50-
см
о. 0,40"
&
В 0.30- 0,20- 0,10- 0,00-
0,00 0,20 0,40 0,60 0,80 1,00
Фактор 1
Рис. 16.4. Факторная структура пяти показателей интеллекта после варимакс-вращения
После вращения каждая переменная имеет большую нагрузку только по одному фактору. Следовательно, каждый фактор может быть однозначно интерпретирован через входящие в него переменные: фактор 1 — по признакам 1 и 2, фактор 2 — по признакам 3 и 5. Так как переменная 1 — счет в уме, переменная 2 — числовые ряды, то фактор 1 может быть идентифицирован как «арифметические способности». Переменные, входящие в фактор 2 (осведомленность, словарный запас, сходство), позволяют интерпретировать его как фактор словесного понимания.
Таб л и ца 16.6
Факторная структура пяти показателей интеллекта после варимакс-вращения
Переменные |
Рг |
И19 |
|
1 |
0,921 |
0,217 |
0,88 |
2 |
0,903 |
0,193 |
0,83 |
3 |
0,183 |
0,757 |
0,61 |
4 |
0,088 |
0,739 |
0,56 |
5 |
0,260 |
0,700 |
0,56 |
СКН* |
1,773 |
1,694 |
3,44 |
Доля дисперсии |
0,355 |
0,339 |
0,69 |
* СКН — сумма квадратов факторных нагрузок1
Проблема оценки значений факторов
После интерпретации факторной структуры допустима оценка значений факторов для объектов. Это позволяет перейти от множества исходных переменных к существенно меньшему числу факторов как новых переменных. Это может понадобиться исследователю как для более компактного представления различий между объектами (или их группами), так и для дальнейшего анализа — регрессионного, дисперсионного и т. д. В этом смысле факторный анализ как общенаучный метод выполняет задачу сокращения размерности набора переменных с минимальными потерями исходной информации.
В качестве оценки значения фактора / для объекта к используется линейная
комбинация значений исходных переменных X.
р
■4 = ЕР/Л* =Р|/*1* +Р2/*2* + - + РР1ХРк , (16.6)
У=1
где/!к — значение фактора с номером / для объекта к; Хд — значение признака с номером у для этого объекта; (3,^ — факторный коэффициент признака у для фактора /.
Поскольку известны корреляции между исходными переменными и корреляции этих переменных с факторами (факторные нагрузки), то в качестве наиболее состоятельной оценки факторных коэффициентов чаще всего выступают коэффициенты множественной регрессии. В качестве «зависимой» переменной выступает фактор, в качестве «независимых» — исходные переменные, а вычисления производятся по формуле 15.3.
Вычисленные по модели множественной регрессии оценки факторных коэффициентов далее используются для вычисления всех оценок значений факторов для каждого объекта по формуле 16.6. Таким образом, исследователь переходит от множества Р переменных к небольшому числу М новых переменных-факторов, интерпретируемых через исходные переменные. Отметим, что средние значения каждой такой новой переменной для всех объектов равно 0, а стандартное отклонение близко (но меньше) 1.
Проблема оценки значений факторов связана с тем, что невозможно точно выразить общий фактор через исходные переменные, так как каждая из этих переменных содержит помимо общности и характерную часть, которую невозможно отделить. Поэтому можно получить лишь оценку значений факторов по исходным переменным, надежность которой обладает большей или меньшей определенностью — в зависимости от вида исходных данных и факторной структуры.
Зависимость надежности факторных оценок от факторной структуры выражается в следующем. Чем меньше суммарная общность всех переменных, тем меньше надежность факторных оценок всех факторов. Чем меньше информативность фактора (сумма квадратов факторных нагрузок по столбцу), тем меньше надежность факторных оценок данного фактора.
В связи с надежностью факторных оценок особое значение приобретает качество измерения исходных переменных. Чем больше исходные переменные соответствуют требованиям, которые предъявляются к метрическим переменным, тем надежнее факторные оценки. Если переменные измерены в порядковой или, тем более, в дихотомической шкале, то надежность факторных оценок снижается до непредсказуемого уровня. Тем не менее, некоторые авторы (см. К. Иберла, 1980) на основе факторного моделирования доказывают, что в случае исходных порядковых и даже дихотомических данных факторные оценки могут быть состоятельными. Условиями состоятельности факторных оценок являются действительно простая факторная структура, а также высокие значения общностей и факторных нагрузок переменных.
В заключение обзора математико-статистических идей факторного анализа заметим, что современный факторный анализ — изящная математическая процедура, имеющая достаточное статистическое обоснование. Это выгодно отличает данный метод от остальных. Эта изящность, наряду с исходным психологическим обоснованием, однако, часто вводит в заблуждение новичка, ожидающего получить «готовый ответ» в результате применения факторного анализа. Необходимо помнить, что факторный анализ не добавляет никакой новой информации к эмпирическим данным. Его задача — в обеспечении возможности интерпретировать данные. Качество же интерпретации целиком зависит от исследователя, оттого, насколько и как он понимает исходные измерения, основы и процедуру факторного анализа.
ПОСЛЕДОВАТЕЛЬНОСТЬ ФАКТОРНОГО АНАЛИЗА
Особенность факторного анализа заключается в неопределенности решения его основных проблем, изложенных в предыдущем параграфе. Нет четких критериев качества их решения, есть лишь рекомендации, которыми руководствуется исследователь в своем стремлении содержательно интерпретировать получаемые результаты. Поэтому факторный анализ — это пошаговая процедура, где на каждом шаге исследователь принимает решение о дальнейших преобразованиях данных. Главным же ориентиром на этом пути остается возможность получения содержательной интерпретации конечных результатов.
Весь процесс факторного анализа можно представить как выполнение шести этапов:
Исследователь, в зависимости от своих целей, решает, сколько раз повторить эту последовательность, какие из этапов будут пропущены и насколько глубоко будет проработан каждый из них. Например, если исследователя интересует только структура взаимосвязей признаков, то достаточно выполнить эту последовательность один раз, без последнего этапа.
Этап 1. Выбор исходных данных
Модель факторного анализа разрабатывалась для метрических данных. Поэтому первое требование к исходным данным — представление всех признаков в метрической шкале (не обязательно с одинаковыми средними и дисперсиями).
Включение в анализ порядковых или бинарных данных допустимо, но исследователь должен отдавать себе отчет, что искажения факторной структуры при этом будут соответствовать искажениям коэффициентов корреляций, и характер этих искажений неизвестен. В общем случае желательно перейти к единой шкале для всех признаков, либо ранговой, либо бинарной, затем вычислять матрицу интеркорреляций, выбирая соответствующие меры взаимосвязи. Исследователь потеряет при этом существенную долю исходной информации. А о допустимости дальнейшего вычисления значений факторных коэффициентов и оценок для объектов известно мало. Можно лишь сказать, что достоверность и ценность конечного результата обратно пропорциональны доле потерянной исходной информации.
Если цель факторного анализа заключается только в определении структуры взаимосвязей переменных, то допустимо применение порядковых данных, но перед проведением факторного анализа необходимо перейти к рангам по каждой переменной. Допустимо также использовать факторный анализ в отношении дихотомических переменных, если задача ограничивается определением структуры взаимосвязей и дихотомические корреляции между переменными не очень велики (не превышают 0,7)'.
Порядковые и даже дихотомические данные могут использоваться для вычисления оценок факторов, но при условии действительно простой факторной структуры, высоких значениях общностей и факторных нагрузок переменных, определяющих каждый фактор (К. Иберла, 1980). При этом желательно проверять устойчивость факторной структуры на параллельных выборках.
Как и в других многомерных методах, недопустимы функциональные зависимости между переменными и корреляции, близкие к единице.
Количественное соотношение признаков и объектов зависит от целей исследования. Если цель анализа — изучение структуры взаимосвязей признаков, уменьшение их исходного количества путем перехода к новым переменным — факторам, то строгих ограничений нет. Желательно лишь, чтобы количество признаков было не меньше количества объектов. Если исследователь хочет обнаружить и обосновать наличие факторов за взаимосвязями переменных, то желательно иметь в три раза больше объектов, чем признаков. Данное соотношение может сложиться и в процессе анализа — при отсеивании мало информативных переменных. Если же стоит задача обоснования выявленной факторной структуры для генеральной совокупности, то объектов должно быть еще больше, для проверки устойчивости этой структуры на параллельных выборках.
Этап 2. Решение проблемы числа факторов
На этом этапе матрица интеркорреляций исходных признаков обрабатывается с использованием анализа главных компонент. Применяется критерий отсеивания Р. Кеттелла и критерий Кайзера — величины собственного значения фактора, большего 1 (ЕщепуаЬе, X > 1). Эти критерии не являются жесткими, поэтому далее проверяется несколько гипотез о числе факторов. Начинать при этом рекомендуется с максимально возможного числа факторов, с учетом обоих критериев, постепенно уменьшая их число.
Этап 3. Факторизация матрицы интеркорреляций
Выбирается метод факторизации, желательно — главных осей, наименьших квадратов или максимального правдоподобия. Задается число факторов, в соответствии с проверяемой гипотезой. Результатом данного этапа является матрица факторных нагрузок (факторная структура) до вращения, которая не подлежит интерпретации.
Полезной информацией на этом этапе могут являться суммарная доля дисперсии (информативность) факторов и значения общностей переменных. Суммарная доля дисперсии — показатель того, насколько полно выделяемые факторы могут представить данный набор признаков, а этот набор — выделяемые факторы. Общность переменной — показатель ее «участия» в факторном анализе, насколько она влияет на факторную структуру. Переменные с наименьшими общностями — ближайшие кандидаты на исключение из анализа в дальнейшем.
Этап 4. Вращение факторов и их предварительная интерпретация
На этом этапе выбирается один из аналитических методов вращения факторов, обычно — варимакс-вращение (Уапшах погшайгес!). Существуют и другие методы вращения, в том числе косоугольного, но они выходят за рамки нашего рассмотрения. В результате вращения достигается факторная структура, наиболее доступная для интерпретации при данном соотношении переменных и факторов.
Интерпретация факторов производится по таблице факторных нагрузок после вращения в следующем порядке. По каждой переменной (строке) выделяется наибольшая по абсолютной величине нагрузка — как доминирующая. Если вторая по величине нагрузка в строке отличается от уже выделенной менее чем на 0,2, то и она выделяется, но как второстепенная. После просмотра всех строк — переменных, начинают просмотр столбцов — факторов. По каждому фактору выписывают наименования (обозначения) переменных, имеющих наибольшие нагрузки по этому фактору — выделенных на предыдущем шаге. При этом обязательно учитывается знак факторной нагрузки переменной. Если знак отрицательный, это отмечается как противоположный полюс переменной. После такого просмотра всех факторов каждому из них присваивается наименование, обобщающее по смыслу включенные в него переменные. Если трудно подобрать термин из соответствующей теории, допускается наименование фактора по имени переменной, имеющей по сравнению с другими наибольшую нагрузку по этому фактору.
Этап 5. Принятие решения о качестве факторной структуры
Формальное требование к факторной структуре сформулировал Л. Терстоун еще в 1930-х годах, назвав его принципом простой структуры. Геометрически принцип простой структуры означает, что все переменные располагаются на осях факторов, то есть каждая переменная имеет близкие к нулю нагрузки по всем факторам, кроме одного. На практике достижение такого результата с первого раза маловероятно, но качество факторной структуры определяется степенью приближения к простой структуре.
Следует отметить общий принцип соотношения качества факторной структуры и качества исходных данных: чем ниже качество исходных данных в смысле требований, предъявляемых к метрическим переменным, тем выше требования к простоте факторной структуры, величине общностей и факторных нагрузок.
В настоящее время не существует формальных критериев соответствия факторной структуры простой. Поэтому основным критерием остается возможность хорошей содержательной интерпретации каждого фактора по двум и более исходным переменным. Если перед исследователем стоит дополнительно проблема обоснования устойчивости (воспроизводимости) факторной структуры в генеральной совокупности, то добавляется требование однозначного соотнесения каждой переменной с одним из факторов. Это требование означает, что каждая переменная имеет большую по абсолютной величине нагрузку (0,7 и выше) только по одному фактору и малые (0,2 и менее) — по всем остальным.
Можно предложить способы максимального приближения к простой структуре путем пошагового сокращения числа факторов и переменных.
Очевидно, что приближение к простой структуре связано с невосполнимой потерей исходной эмпирической информации. И каждый раз исследователь должен решать, насколько целесообразна эта потеря в свете стоящих перед ним задач. Наиболее жестки требования к простой структуре в случае обоснования устойчивости и воспроизводимости факторов, например, при разработке теста или факторной теоретической модели. Гораздо мягче требования при решении наиболее часто встречающихся задач — при изучении структуры взаимосвязей или при сокращении исходного набора признаков для дальнейшего исследования, например, различий между группами объектов.
Этап 6. Вычисление факторных коэффициентов и оценок
Это заключительный, наиболее однозначный и простой этап факторного анализа.
Оценки факторных коэффициентов являются коэффициентами линейного уравнения, связывающего значение фактора и значения исходных переменных. Они показывают, с каким весом входят исходные значения каждой переменной в оценку фактора. Факторные коэффициенты можно использовать для вычисления факторных оценок для новых объектов, не включенных ранее в факторный анализ.
Факторные оценки — значения факторов для каждого объекта (испытуемого). Их получение чаще всего и является конечным результатом факторного анализа. Вычисленные оценки факторов, как новые переменные, являются независимыми, отражающими реальную структуру взаимосвязей исходных признаков и наиболее полно передающими исходную эмпирическую информацию. В этом факторные оценки выгодно отличаются от других способов интегрирования исходных данных, например от простого суммирования пунктов теста или анкеты в шкалы.
ПРИМЕР 16.2
До широкого распространения персональных компьютеров полновесный факторный анализ был экзотической, весьма трудоемкой многоэтапной процедурой, когда очередной шаг исследователь выбирает по результатам выполнения предыдущих этапов. В настоящее время можно контролировать процесс факторного анализа без «посредников» (программиста, операторов), пользуясь современным программным обеспечением. Для этого не нужны знания программиста и математика, достаточны осведомленность в основных математико-статистических идеях метода и умение «читать» промежуточные и конечные результаты факторного анализа. При этом факторный анализ может быть рекомендован для решения очень широкого круга не только исследовательских, но и практических задач. Перечислим некоторые из них.
Рассмотрим результаты факторного анализа в последовательности их получения на фрагменте реального психологического исследования с использованием метода семантического дифференциала. В исследовании применялся личностный дифференциал (ЛД), разработанный в ЛНИПИ им. В. М. Бехтерева. ЛД включает в себя 21 пару прилагательных, сгруппированных по трем шкалам: О — оценки, С —силы и А — активности. Исследование проводилось на слушателях психологического специального факультета, проходящих переподготовку по психологии (43 человека). Изучались ожидаемые слушателями изменения в восприятии себя в результате смены специальности. Соответственно им предлагалось оценить себя дважды при помощи личностного дифференциала: а) в настоящий момент; б) какими они себя видят через пять лет. Путем традиционного усреднения оценок по факторам было обнаружено, что слушатели ожидают существенных изменений только в направлении усиления активности (экстравертированности). Более детальные результаты дал факторный анализ.
На первом этапе вся выборка была разделена на две части в случайном порядке (21 и 22 человека). По результатам факторизации 21 признака дважды, для двух вы-
борок, объемом 42 (21x2) и 44 (22x2) объекта, были отобраны 10 пар прилагательных. Критерием отбора была сходная группировка этих признаков по трем факторам, то есть воспроизводимость факторной структуры. Список этих прилагательных приведен как фрагмент бланка в табл. 16.7 с указанием их принадлежности к одной из трех шкал по традиционному варианту методики.
Табл ица 16.7
Отобранные пары прилагательных личностного дифференциала с «ключом» по исходному варианту методики
№ |
Бланк ЛД (пары прилагательных) |
«Ключ» |
||
1 |
Разговорчивый |
3210123 |
Молчаливый |
А |
2 |
Безответстве н ны й |
3210123 |
Добросовестный |
О |
3 |
Замкнутый |
3210123 |
Открытый |
А |
4 |
Зависимый |
3210123 |
Независимый |
С |
5 |
Деятельный |
3210123 |
Пассивный |
А |
6 |
Вялый |
3210123 |
Энергичный |
А |
7 |
Расслабленный |
3210123 |
Напряженный |
С |
8 |
Суетливый |
3210123 |
Спокойный |
А |
9 |
Несамостоятельный |
3210123 |
Самостоятельный |
С |
10 |
Раздражительный |
3210123 |
Невозмутимый |
А |
Для дальнейшего анализа использовалась объединенная выборка: 10 признаков для 86 объектов (43x2). После вычисления матрицы корреляций между отобранными признаками был проведен компонентный анализ для уточнения числа факторов. Полученный в результате график собственных значений приведен на рис. 16.5. Выше единичного собственного значения лежат три фактора, изгиб графика наблюдается на уровне четвертого фактора. Следовательно, ожидаемое количество факторов — от 3 до 5. При проверке 4- и 5-факторных структур ни один из признаков не имел максимальные нагрузки по последним факторам, то есть не идентифицировался по переменным. Вывод — достаточное количество факторов равно трем. В качестве метода факторизации был выбран метод максимального правдоподобия, позволяющий оценить статистическую значимость «качества подгонки» — полноты факторизации по распределению остаточных коэффициентов корреляции.
Рис, 16.5. График собственных значений после компонентного анализа 10 шкал ЛД
Действительно, при двухфакторном решении статистическая значимость составляет^ 0,05, а при трехфакторном р = 0,731. Это свидетельствует в пользу выбора трехфакторного решения. Полученная факторная структура до вращения (Шго- (а1ес!) приведена в левой части табл. 16.8.
Таблица 16.8
Факторная структура 10 шкал ЛД до и после варимакс-вращения
Номер переменной |
Факторные нагрузки (Расшг ЬоасНп^з) |
Общность (к2) |
|||||
До вращения (ШгоШед) |
После вращения (Уаптах погтаИгес!) |
||||||
1 |
-0,12 |
0,62 |
0,53 |
0,09 |
-0,09 |
-0,82 |
0,68 |
2 |
0,19 |
-0,41 |
0,36 |
0,02 |
0,58 |
0,04 |
0,34 |
3 |
0,45 |
-0,55 |
-0,42 |
0,23 |
0,20 |
0,76 |
0,68 |
4 |
0,70 |
0,13 |
0,15 |
0,70 |
0,21 |
-0,03 |
0,53 |
5 |
-0,24 |
0,68 |
-0,15 |
0,03 |
-0,63 |
-0,39 |
0,55 |
6 |
0,47 |
-0,66 |
0,12 |
0,20 |
0,65 |
0,45 |
0,67 |
7 |
-0,93 |
-0,22 |
0,06 |
-0,94 |
-0,07 |
-0,11 |
0,91 |
8 |
0,73 |
0,36 |
-0,11 |
0,81 |
-0,11 |
0,01 |
0,67 |
9 |
0,49 |
-0,44 |
0,53 |
0,28 |
0,80 |
0,01 |
0,72 |
10 |
0,74 |
-0,06 |
0,11 |
0,66 |
0,32 |
0,13 |
0,56 |
скн |
3,19 |
2,15 |
0,96 |
2,66 |
2,01 |
1,63 |
6,3 |
Доля дисперсии |
0,32 |
0,21 |
0,10 |
0,27 |
0,20 |
0,16 |
0,63 |
Суммарная информативность всех трех факторов, равная сумме собственных значений, деленной на количество переменных, составляет 0,63. Иными словами, выделенные факторы объясняют 63% суммарной дисперсии признаков — более половины, что считается приемлемым результатом.
В правой части табл. 16.8 приведена факторная структура 10 признаков после варимакс-вращения (Уаптах погтаНгес!). Все признаки однозначно соотносятся по высоким факторным нагрузкам только с одним из факторов. Большинство признаков по другим факторам имеет незначительные (менее 0,2) факторные нагрузки. Можно заключить, что полученная факторная структура является достаточно простой, и приступить к интерпретации факторов. Перед интерпретацией по каждой переменной (по строке) отмечается наибольшая по абсолютной величине факторная нагрузка.
Положительный полюс фактора интерпретируется по положительным полюсам переменных, имеющих наибольшие положительные нагрузки, и по отрицательным полюсам переменных, имеющих отрицательные (наибольшие по абсолютной величине) нагрузки по этому фактору. Отрицательному полюсу фактора соответствуют отрицательные полюса переменных с положительными и положительные полюса — с отрицательными наибольшими по абсолютной величине нагрузками по этому фактору.
Фактор 1 имеет наибольший вес или наибольшую информативность (27%). Его положительный полюс определяется положительными полюсами переменных 4 (независимый), 8 (спокойный), 10 (невозмутимый) и отрицательным полюсом переменной 7 (расслабленный). Отрицательный полюс этого фактора определяется противоположными полюсами указанных переменных: зависимый, суетливый, раздражительный, напряженный. Таким образом, на положительном полюсе фактора — спокойная невозмутимость, на отрицательном — раздражительная слабость. В соответствии с известной психологической терминологией, этот фактор может быть идентифицирован как фактор эмоциональной стабильности — нейротизма.
Фактор 2 (информативность 20%): положительный полюс определяется положительными полюсами переменных 9 (самостоятельный), 6 (энергичный), 2 (добросовестный) и отрицательным полюсом переменной 5 (деятельный). Отрицательный полюс этого фактора, соответственно: несамостоятельный, вялый, безответственный, пассивный. Этот фактор можно обозначить как добросовестность (ответственность) — несамостоятельность.
Фактор 3 (информативность 16%): его положительные значения определяются положительным полюсом переменной 3 (открытый) и отрицательным — переменной 1 (разговорчивый). Этот фактор также положительно коррелирует с переменной 6 (энергичный). Отрицательный полюс фактора: замкнутый, молчаливый (вялый). Этими прилагательными обычно обозначают проявление экстраверсии (положительный полюс) — интроверсии (отрицательный полюс).
Выделенные три фактора, таким образом, однозначно интерпретируются, соотносясь с общепринятыми психологическими понятиями. Интересно их соотношение с факторами так называемой большой пятерки20, связывающей «обыденные» и «научные» теории личности. Эти три фактора полностью соответствуют трем из пяти факторов «пятерки»: экстраверсии, нейротизму и добросовестности (ответственности). Два остальных фактора из «пятерки» (оригинальность и альтруизм) не нашли отражения, по-видимому, в связи с неполнотой списка прилагательных в ЛД.
Факторы, получившие исчерпывающую интерпретацию, далее были вычислены для каждого объекта. Для вычисления факторных оценок для объектов (испытуемых) достаточно выбрать соответствующую функцию в меню программы факторного анализа, не выходя из нее после выполнения предыдущего шага. Вычислением факторных оценок и завершился собственно факторный анализ самооценок слушателей.
Затем по вычисленным факторным оценкам были сопоставлены две выборки ответов: «Я сейчас» и «Я через 5 лет». При помощи /-критерия Стьюдента для зависимых выборок были получены статистически значимые различия между этими выборками по всем трем факторам.
Опуская психологическую интерпретацию конечного результата, отметим то главное, что позволил сделать факторный анализ. При помощи него удалось выявить действительную семантическую структуру самооценки, существенно отличающуюся от заданной заранее в ЛД. В аморфном понятии «активность», выражающем различие в восприятии настоящего и будущего «Я», факторный анализ выявляет три различные тенденции к изменениям в будущем, по которым и наблюдаются наибольшие индивидуальные различия.
ОБРАБОТКА НА КОМПЬЮТЕРЕ
Рассмотрим последовательность применения факторного анализа (программа 5Р55), при помощи которого были получены результаты приведенного выше примера 16.2. В качестве исходных данных (Эа1а ЕсШог) были использованы 10 переменных (у1, у2, ..., уЮ), измеренных для 86 объектов. Интерпретация основных показателей исчерпывающе изложена при обсуждении последнего примера.
Примечание. В связи с тем, что на первом этапе необходимо предварительно оценить число факторов, нужно выбрать анализ главных компонент и получить график собственных значений.
Нажимаем кнопку Ех*гасиоп... (Метод факторизации). В открывшемся окне диалога убеждаемся, что по умолчанию установлено: Рппс1ра1 сошропеп1§ (Главные компоненты). Флажком отмечаем 8сгее р1о1 (График собственных значений). Нажимаем СопШше (Продолжить). Нажимаем ОК.
8сгее Р1о1
Сотропеп* МытЬег
Примечание. После предварительного определения числа факторов по этому графику начинаем факторный анализ сначала.
5. Выбираем Апа1уге > Ба*а Кейисйоп > Раскоп.. В открывшемся окне диалога убеждаемся, что выбранные ранее переменные сохранены для анализа в окне УапаЫез (переменные).
Нажимаем кнопку Ех^гасйоп... (Метод факторизации). В открывшемся
окне диалога задаем необходимое число факторов: отмечаем щелчком мыши 1ЧшпЬег оГ Гас1ог« (Число факторов) и в соответствующем окне указываем: 3. Выбираем метод: нажимаем кнопку МеИюё:... > и выбираем Махпшип Нке- Шюос! (Максимального правдоподобия). Флажок 8сгее р)о( (График собственных значений) можно снять. Нажимаем Сопйпие (Продолжить).
А) Значения общностей (/г2):
СотшипаНЫеа
1п1ь1а1 |
ЕхЬгас1:10п |
|
VI |
. 525 |
. 684 |
V2 |
.378 |
.337 |
V3 |
. 591 |
. 675 |
V4 |
. 543 |
. 533 |
V5 |
. 534 |
. 547 |
лгб |
. 622 |
. 669 |
VI |
.760 |
. 910 |
V8 |
. 634 |
. 673 |
V9 |
. 544 |
.716 |
V10 |
. 579 |
. 559 |
ЕхЬгасЫоп МеЬЬосЗ: Маххтит ЫкеШюод.
Начальные значения общностей (1пШа1) равны КМК; конечные значения общностей (Ех1гас1юп) получены в результате факторизации методом максимального правдоподобия.
В) Компоненты суммарной дисперсии (см. табл. То1а1 Уапапсе Ехр1атес1).
В этой таблице указаны распределенные по факторам: исходные собственные значения (1пК1а1 Ещепуа^ез); суммы квадратов факторных нагрузок для извлеченных факторов (Ех1гас1юп 8ишз оГ§яиагес1 Ьоасйп§8); суммы квадратов факторных нагрузок после вращения (К.о1а1юп Зитз оГЗяиагес! Ьоас1т§§). Для собственных значений и сумм квадратов по каждому фактору указаны: сами значения (То1а1), процент от общей дисперсии (% оГУапапсе) и накоплен
ие
ТоЪа! Уаг1апсе Ехр1а1пей
1п1(;1а1 Е1дет/а1иез |
ЕхСгасЫоп Зишз о:Е |
КоЬаЫоп Зишз о:Е |
|||||||
Здиагей Ьоайл.пдз |
Здиагей Ьоайхпдз |
||||||||
РасЬог |
ТоСа1 |
% ОС |
Сити- |
ТоСа! |
% ОС |
Сиши- |
ТоСа1 |
% о? |
Сити- |
Уаг1- |
Уаг1- |
1а(::^е |
Уагх- |
||||||
апсе |
% |
апсе |
% |
апсе |
% |
||||
1 |
3 . 815 |
38.155 |
38.155 |
3 .191 |
31.914 |
31.914 |
2 . 659 |
26.591 |
26.591 |
2 |
2.227 |
22.266 |
60.421 |
2.147 |
21. 474 |
53 .388 |
2.010 |
20.097 |
46.688 |
3 |
1.320 |
13 .196 |
73.617 |
.964 |
9.643 |
63 .031 |
1.634 |
16.343 |
63 .031 |
4 |
.692 |
6 .924 |
80.541 |
||||||
5 |
. 533 |
5.328 |
85.870 |
||||||
6 |
.402 |
4.016 |
89.885 |
||||||
|
.341 .295 |
3 .412 2.955 |
93.298 96.253 |
||||||
9 |
.221 |
2 .209 |
98.462 |
||||||
10 |
.154 |
1.538 |
100.000 |
ЕхСгас(;1оп МеЫюй: Маххшиш ЫкеНЬоой.
ный процент от общей дисперсии (СитиЫгуе %). (Последние два показателя важны для определения информативности факторов.) С) Факторные нагрузки до вращения:
РасЪог МаЬг1х(а)
РасЪог |
|||
1 |
2 |
3 |
|
VI |
-.125 |
-.620 |
. 533 |
V2 |
. 188 |
.411 |
.364 |
V3 |
.445 |
.548 |
- .420 |
V4 |
.703 |
-.131 |
. 147 |
V5 |
-.240 |
-.684 |
-.148 |
V6 |
.469 |
. 660 |
.116 |
ч1 |
-.926 |
.222 |
|
V8 |
.731 |
-.356 |
-.110 |
V9 |
.486 |
. 440 |
. 534 |
УЮ |
.737 |
.111 |
Ех(:гас(;1оп МеЫюй: Мах1шит Ь1кеИЪоой. а 3 1:ас(:огз ехСгасЬей. 6 Л-СегаЪхопз геди1гей.
Б) Статистическая оценка «качества подгонки»:
Соо<1певв-оС-С11: ТевЪ
СЫ- Здиаге |
31д. |
|
13.963 |
18 |
.731 |
Статистическая значимость (8щ.) позволяет судить о том, достаточное ли количество факторов выделено. В данном случае > 0,05, следователь
но, трех факторов достаточно.
НоСаСей ГасЪог МаЪг1х(а)
Е) Факторные нагрузки после вращения:
РасЬог |
|||
1 |
2 |
3 |
|
VI |
- . 818 |
||
V2 |
.579 |
||
V3 |
.232 |
.204 |
.761 |
V4 |
. 699 |
.210 |
|
V5 |
- . 628 |
-.390 |
|
V6 |
.198 |
.654 |
.450 |
- .945 |
- .110 |
||
V8 |
.813 |
- . 110 |
|
V? |
.279 |
.798 |
|
уЮ |
. 661 |
.325 |
. 126 |
ЕхЬгасЬхоп МеСНоб.: Мах1тит ЫкеИЪоой. КоЬа(;1оп МеЬЬой: Уаггтах мИ;Ь Ка1зег Ыогта1 хгаЫоп.
а КоЬаЫоп сош/егдеб. 1п 5 1(:егаС1опз.
(Указаны факторные нагрузки, превышающие по абсолютной величине 0,1.)
Примечание. После получения окончательного варианта результатов факторного анализа и интерпретации факторов (по таблице факторных нагрузок после вращения) возможно вычисление факторных оценок — как новых переменных для последующего анализа другими методами.
А) Матрица коэффициентов факторных оценок:
Рассог Зсоге СоеС^хсхепЬ МаЬгхх
РасСог |
|||
1 |
2 |
3 |
|
VI |
.060 |
.113 |
-.493 |
V2 |
-.018 |
.158 |
-.045 |
РасЬог |
|||
1 |
2 |
3 |
|
л/3 |
.005 |
- . 052 |
.408 |
. 095 |
. 055 |
-.063 |
|
л/5 |
. 046 |
- .204 |
-.078 |
л/6 |
-.020 |
.266 |
.128 |
V7 |
-.696 |
. 172 |
-.051 |
л/8 |
. 180 |
-.121 |
- .002 |
л/9 |
.006 |
. 500 |
- . 192 |
V10 |
. 084 |
.085 |
-.012 |
Ех(:гасС10п МеЪЬой: Мах1шиш Ь1кеИЬоой. КоСаЫоп МеСЬой: Уагхшах Ка1зег ЫогшаИгасл.оп. РасЬог Зсогез МеСЬой: Кедгезз1оп.
Эти коэффициенты являются стандартизированными регрессионными Р-коэффициентами трех уравнений множественной регрессии — по одному для каждого фактора. Каждый из них пропорционален соответствующей факторной нагрузке и обратно пропорционален корреляции данной переменной с другими переменными. Факторные оценки по каждому фактору для объекта получаются путем подстановки в регрессионное уравнение с указанными р-коэффициентами г-значений соответствующих исходных переменных.
В) Новые переменные в составе таблицы исходных данных (5Р55 Ба1а Есй(ог).
После выполнения пп. 10—В в таблице исходных данных Оа1а ЕШ1ог после исходных переменных появляются новые переменные, соответствующие вычисленным факторным оценкам для объектов. В данном случае для каждого испытуемого вычислены потри значения факторных оценок: РАС 1_1, РАС21, РАСЗ_1. Эти переменные могут быть использованы для дальнейшего анализа вместо набора исходных переменных.
Глава 17
ДИСКРИМИНАНТНЫЙ АНАЛИЗ
НАЗНАЧЕНИЕ
Дискриминантный анализ представляет собой альтернативу множественного регрессионного анализа для случая, когда зависимая переменная представляет собой не количественную (номинативную) переменную. При этом дискриминантный анализ решает, по сути, те же задачи, что и множественный регрессионный анализ (МРА): предсказание значений «зависимой» переменной, в данном случае — категорий номинативного признака; определение того, какие «независимые» переменные лучше всего подходят для такого предсказания. Структуры исходных данных для дискриминантного и множественного регрессионного анализа практически идентичны:
№ |
х2 |
Хг |
У |
||
1 |
Хп |
х12 |
*]/> |
У\ |
|
2 |
х22 |
хгР |
Уг |
||
N |
хт |
хКР |
Ун |
Строки этой таблицы соответствуют объектам (испытуемым), а столбцы — переменным. Переменные хи ..., хР представлены в количественной шкале. Различие исходных данных для дискриминантного и множественного регрессионного методов заключается лишь в том, что представляет собой «зависимая» переменная У: для МРА она является количественной, а для дискриминантного анализа — номинативной (классифицирующей) переменной.
В то же время дискриминантный анализ можно определить и как метод классификации, так как «зависимая» переменная — номинативная, то есть она классифицирует испытуемых на группы, соответствующие разным ее градациям. В этом смысле исходными данными для дискриминантного анализа является группа N объектов (испытуемых), разделенная на С классов так, что каждый объект отнесен к одному и только одному классу (градации номинативной переменной). Допускается при этом, что некоторые объекты не отнесены к какому-либо из этих классов (являются «неизвестными»). Для каждого из объектов имеются данные по Р количественным признакам, одним и тем же для этих объектов. Эти количественные признаки называются дискри- минантными переменными. Задачами дискриминантного анализа являются: определение решающих правил, позволяющих по значениям дискриминантных переменных отнести каждый объект (в том числе и «неизвестный») к одному из известных классов; определение «веса» каждой дискриминантной переменной для разделения объектов на классы.
ПРИМЕР
В качестве объектов могут выступать студенты, сгруппированные по успешности обучения, а в качестве дискриминантных переменных — результаты их вступительных испытаний, социально-демографические характеристики и пр. При помощи дискриминантного анализа мы можем выделить переменные, наиболее важные для предсказания успешности обучения. Кроме того, по этим показателям мы можем предсказать успешность обучения абитуриентов.
Испытуемыми могут быть клиенты психотерапевта, сгруппированные по эффекту оказанной помощи. Переменными — симптомы, различные социальные и психологические показатели, а также характеристики видов помощи (длительность и характер терапии и пр.). При помощи дискриминантного анализа исследователь может определить переменные, наиболее существенные для эффекта психотерапии, а также предсказать результативность терапии для данного клиента при использовании данного вида помощи.
Таким образом, дискриминантный анализ позволяет решить две группы проблем:
В решении задачи классификации дискриминантный анализ является не заменимым другими методами. Часто дискриминантный анализ называют еще «классификацией с обучением» или «распознаванием образов». В первом случае предполагают, что мы «учимся» классифицировать «неизвестные» объекты по дискриминантным переменным, используя данные об «известных» объектах. Во втором случае под «образом» объекта подразумевается совокупность измеренных для него значений дискриминантных переменных. И дискриминантный анализ позволяет в этом смысле распознать образ «нового» объекта путем отнесения его к известному классу объектов.
Дискриминантный анализ имеет общие черты с многомерным дисперсионным анализом (МАМОУА). По сути, дискриминантные переменные можно рассматривать как многомерную зависимую переменную, а классифицирующую переменную — как фактор. Этот подход применяется для определения достоверности различения классов по совокупности всех переменных (по Х-Вилкса) и по каждой из дискриминантных переменных в отдельности (по критерию /^-Фишера) — как в дисперсионном, так и в дискриминантном анализе.
Сравнивая дискриминантный и множественный регрессионный анализ, можно отметить их сходство в отношении решаемой задачи — предсказания. Однако дискриминантный анализ, являясь более сложным методом, имеет свои преимущества. В качестве «зависимой» переменной в дискриминантном анализе выступает классификация, что делает метод более универсальным: любое измерение можно свести к шкале наименований и избежать требования нормальности распределения «зависимой» переменной. Прогностическая эффективность дискриминантого анализа обычно выше, чем МРА, так как для предсказания используется не одна функция, как в МРА, а, как правило, несколько. Наконец, дискриминантный анализ позволяет провести более глубокое исследование различий между градациями «зависимой» переменной и влияния на нее «независимых» переменных.
МАТЕМАТИКО-СТАТИСТИЧЕСКИЕ ИДЕИ МЕТОДА
Классы, на которые разбито множество объектов, можно представить как значения некоторой классифицирующей («зависимой») переменной, измеренной в шкале наименований. Дискриминантные переменные представлены в числовой шкале. Основная задача дискриминантного анализа заключается в том, чтобы по значениям дискриминантных переменных для объектов получить значения классифицирующей переменной, то есть определить классы, в которые попадают эти объекты.
Дискриминантные переменные, количество которых равно Р, можно представить себе как ортогональные оси /^-мерного евклидова пространства. Тогда каждый объект будет являться точкой в этом пространстве, положение которой задано значениями дискриминантных переменных для этого объекта как его координатами. Так, если переменных две, то объект может быть изображен на плоскости в месте пересечения координат, соответствующих значениям этих двух переменных для данного объекта. Если переменных три, то объект представляет собой точку в трехмерном пространстве, и т. д.
Множество объектов в пространстве Р признаков можно представить как скопление точек. Чем более объекты похожи друг на друга по данным признакам, тем плотнее будет скопление точек. Если несколько классов объектов отличаются друг от друга по дискриминантным переменным, то их можно представить как соответствующие классам скопления точек в некоторых областях Р-мерного пространства признаков. Чем больше объекты внутри каждого класса похожи друг на друга и отличаются от объектов из другого класса, тем меньше пересечений соответствующих классам «территорий».
Для каждого класса в пространстве признаков можно определить положение центроида — точки, координаты которой есть средние значения дискриминантных переменных для данного класса. Центроид — это место типичных наблюдений для данного класса, его можно использовать как для описания различий между классами, так и для определения принадлежности «неизвестных» объектов к одному из классов.
Из геометрической интерпретации задачи дискриминантного анализа следует правило классификации объектов: объект приписывается к тому классу, к центроиду которого он ближе всего. Соответственно, сама задача классификации объектов сводится к определению расстояний от каждого объекта до центроидов каждого класса по известным значениям дискриминантных переменных.
В современных компьютерных программах задача классификации решается с помощью канонических дискриминантных функций. Канонические функции — это ортогональные оси, в максимальной степени различающие центроиды классов. Началом координат для канонических функций является «главный центроид» — точка, координаты которой есть средние значения всех дискриминантных переменных. Первая каноническая ось ориентирована в направлении, в котором центроиды классов различаются в максимальной степени. Если классов больше двух, то вторая ось ориентирована перпендикулярно первой в направлении максимального различия классов и т. д. Максимальное число таких функций равно числу классов за вычетом единицы. Так, для различения двух центроидов (классов) достаточно одной оси, для различения трех классов — двух канонических функций, и т. д. Таким образом, канонические функции позволяют преобразовать Р-мерное пространство исходных признаков в 0-мерное пространство дискриминантных функций (0 = 0- 1, где С — число классов). Обсуждение процедуры получения канонических функций выходит за рамки этой книги. Отметим лишь, что в ее основе лежит анализ ковариационных и корреляционных матриц, а процедура их получения и результат весьма напоминают факторный анализ.
Канонические функции и дискриминантные переменные связывают стандартизированные канонические коэффициенты, которые позволяют оценить относительный вклад переменных в каждую каноническую функцию. В отличие от них, структурные коэффициенты канонических функций — это корреляции канонических функций и дискриминантных переменных. Как и факторные нагрузки в факторном анализе, структурные коэффициенты отражают связь дискриминантных переменных с каноническими функциями. Структурные коэффициенты канонических функций показывают вклад каждой дискриминантной переменной в различительную способность соответствующей функции. Таким образом, каждая каноническая функция может быть проинтерпретирована через переменные, вносящие в нее наибольший по абсолютной величине вклад — подобно интерпретации факторов по факторным нагрузкам в факторном анализе.
Анализ канонических функций сопровождается получением важных статистических показателей качества классификации. Основными из них являются: собственное значение канонической функции, Х-Вилкса и у}-тест.
Собственное значение канонической функции, как и в факторном анализе, есть показатель информативности функции. Сумма всех собственных значений равна числу классов. Соответственно, собственное значение для данной канонической функции, деленное на количество классов, есть показатель ее информативности — доли суммарной дисперсии всех объектов по всем переменным, которая исчерпывается этой канонической функцией.
Х-Вилкса выполняет ту же функцию, что и в МАМОУА, то есть является мерой достоверности различения классов при помощи данного набора переменных. Х-Вилкса — это мера остаточной дискриминативной способности переменных при учете данного набора канонических функций. Следовательно, чем меньше Х-Вилкса, тем лучше данная каноническая функция (или весь их набор) различает объекты. х2-тест позволяет определить статистическую достоверность такого различения.
ПРИМЕР
Предположим, в результате дискриминантного анализа для трех классов были получены две канонические функции. Основные их показатели приведены ниже в таблице.
Функции |
Собственное значение |
% дисперсии |
Х-Вилкса |
2 1 |
р-уровень |
1 |
2,794 |
95,6 |
0,233 |
22,549 |
0,004 |
2 |
0,129 |
4,4 |
0,886 |
1,879 |
0,598 |
Первая каноническая функция обладает95,6% общихдискриминативныхвозможностей, а вторая — всего 4,4%. Величина X = 0,233 для первой канонической функции показывает остаточную дискриминативную способность после учета всех канонических функций, а величина X = 0,886 — остаточную дискриминативную способность при учете только второй канонической функции. Общая дискрими- нативная способность канонических функций достоверна на высоком уровне статистической значимости (р = 0,004), а статистическая значимость второй канонической функции явно мала (р = 0,598). Таким образом, различие классов по второй канонической функции не подлежит содержательной интерпретации. В принципе, ее можно исключить из анализа, но при условии, что качество классификации при этом сохранится на приемлемом для исследователя уровне.
Значения канонических функций вычисляются для каждого объекта по формуле, которая идентична по виду линейному уравнению множественной регрессии:
Уцс = Ьк() + Ьк1хи + Ьк2Х21 + ... + ЪкрХр1,
где У1к — значение канонической функции к для объекта /, а Ьк{), ..., ЬкР_канони- ческие коэффициенты для каждой из дискриминантных переменных. Значения канонических функций вычисляются для каждого центроида и каждого объекта, в том числе — «неизвестного», для которого не известна принадлежность к классу, и интерпретируются как их координаты в пространстве канонических функций. В этом пространстве малой размерности можно получить наглядное отображение всех объектов вместе с центроидами классов.
Принадлежность объекта к классу в большинстве компьютерных программ дискриминантного анализа определяется по расстоянию этого объекта до центроида соответствующего класса в пространстве канонических функций. Объект причисляется к тому классу, к центроиду которого он ближе всего. Однако надо помнить, что если расстояние объекта до класса велико (то есть профиль объекта мало похож на среднегрупповой), то объект может быть причислен к данному классу, поскольку до остальных классов он еще дальше.
Определение принадлежности неизвестных объектов
Производной от расстояния является еще одна мера классификации — апостериорная вероятность принадлежности к классу. Априорная вероятность («до опыта») принадлежности «нового» объекта к классу равна численности «известных» объектов этого класса, деленной на все «известные» объекты. Эта вероятность известна и без дискриминантного анализа, «до опыта». Апостериорная вероятность («после опыта») вычисляется исходя из расстояний данного объекта до центроидов каждого класса в предположении, что он принадлежит к одному из этих классов. Для любого объекта, следовательно, сумма этих вероятностей по всем классам равна 1. И чем меньше расстояние этого объекта до центроида класса, тем выше апостериорная вероятность его принадлежности к этому классу. Отнесение объекта к классу на основе наибольшей из вероятностей, таким образом, эквивалентно использованию наименьшего расстояния до центроида этого класса.
Вычисленные расстояния или апостериорные вероятности для известных объектов позволяют определить точность классификации и проанализировать ошибки, а для неизвестных — отнести объекты к одному из классов.
Анализ дискриминантных переменных позволяет, если это необходимо, отсеять несущественные для предсказания дискриминантные переменные. Наиболее важными показателями в этом анализе являются: критерий Р-Фи- шера, толерантностью статистика Р-удаления. Значимость каждой переменной для разделения классов определяется по ^-Фишера по модели дисперсионного анализа. Толерантность равна единице минус квадрат коэффициента
множественной корреляции этой переменной со всеми остальными. Если толерантность равна нулю, то эта переменная является линейной комбинацией одной или нескольких других переменных и ее нельзя включать в анализ, равно как и переменные с очень малой толерантностью (скажем, меньше 0,001). Статистика /"-удаления оценивает ухудшение разделения классов при удалении данной переменной из набора. Следовательно, чем больше значение этой статистики, тем более значима данная переменная для различения классов. На величину статистики Р-удаления влияет не только различительная способность самой этой переменной (как в модели дисперсионного анализа), но и ее связь с другими переменными: чем сильнее она связана с другими переменными, тем меньше статистика /"-удаления, тем меньше значение данной переменной.
Компьютерные программы позволяют автоматически отсеять малозначимые для дискриминантного анализа переменные. Во-первых, программа (8Р55) автоматически исключает из анализа переменные с низкой толерантностью. Во-вторых, возможен пошаговый дискриминантный анализ. При пошаговом методе переменные удаляются из анализа или включаются в него на основе улучшения (ухудшения) качества различения классов (обычно — поX- Вилкса). Критериями для включения и удаления переменной являются статистики /"-включения и /"-удаления, которые показывают степень улучшения и ухудшения различения классов при включении и удалении данной переменной. Численные значения этих статистик могут быть заданы пользователем программы.
Дополнением к задаче классификации является анализ расстояний между классами. Программы обычно вычисляют значения /"-критерия Фишера и р-уровень статистической значимости расстояния. Анализ расстояний позволяет определить, насколько существенно различаются классы по выбранным для анализа дискриминантным переменным.
Несмотря на обилие статистических критериев и показателей качества классификации, основным ориентиром для исследователя должно все же являться сопоставление действительной классификации «известных» объектов и их классификации при помощи канонических функций. Таким образом, основным показателем качества является процент совпадения этих двух классификаций.
Дискриминантный анализ относится к наиболее сложным методам, поэтому здесь мы ограничились лишь минимумом сведений, необходимых для понимания его основ. Более детальную информацию о порядке интерпретации основных показателей дискриминантного анализа можно почерпнуть в последнем разделе этой главы, где разбирается конкретный пример применения этого метода21.
ИСХОДНЫЕ ДАННЫЕ И ОСНОВНЫЕ РЕЗУЛЬТАТЫ
Исходными для дискриминантного анализа являются N объектов (испытуемых), разбитых на О классов так, чтобы в каждом классе содержалось не менее двух объектов. Для каждого из них имеются данные по Р переменным. В отношении количества переменных строгих ограничений нет, но часто рекомендуют не менее чем двукратное превышение числа объектов над числом переменных.
Исходные данные удобно представлять в виде матрицы размерностью //строк и Р+1 столбцов, где добавленная переменная содержит обозначение принадлежности объекта к классу. Если у нас, предположим, имеется 3 класса, то каждый «известный» объект маркируется в этом столбце цифрой 1, 2 или 3 — в зависимости от принадлежности к классу. «Неизвестные» объекты при этом не обозначаются.
Статистические принципы, заложенные в основу анализа, предполагают измерение дискриминантных переменных в метрической шкале (интервалов или отношений). Кроме того, предполагается нормальное распределение каждого признака. Если эти требования не выполняются, использование статистических показателей классификации становится некорректным. Тем не менее, исследователь может отступать от этих предположений, определяя предсказательную силу дискриминантного анализа по соотнесению действительной и предсказанной классификации для «известных» объектов.
Другое требование к исходным данным — отсутствие линейных зависимостей между дискриминантными переменными (коэффициентов корреляции, равных 1). Мера соблюдения этого требования — толерантность каждой переменной — вычисляется в ходе анализа. Если толерантность какой-либо переменной слишком низка, компьютерная программа (в 8Р88) автоматически ее исключает.
распоряжении имеются результаты применения тех же 4 тестов для пяти абитуриентов, и исследователь надеется предсказать принадлежность каждого из них к одной из трех групп. Таким образом, исходными данными для дискриминантного анализа являются: классифицирующая переменная — принадлежность к одной из трех групп (У) и 4 дискриминантных переменных — результатов тестов (1е$11,1е$1 2,1ев1 3,1е$14). Исходные данные представляют собой следующую таблицу:
Та бл и ц а 17.1 Пример исходных данных для дискриминантного анализа
№ |
1е$11 |
1е$1 2 |
1ез13 |
1е$14 |
У |
1 |
86,00 |
110,00 |
110,00 |
101,00 |
1 |
2 |
62,00 |
97,00 |
99,00 |
100,00 |
0 |
3 |
93,00 |
107,00 |
103,00 |
103,00 |
1 |
4 |
87,00 |
117,00 |
93,00 |
95,00 |
0 |
20 |
150,00 |
118,00 |
107,00 |
110,00 |
2 |
21 |
96,00 |
114,00 |
114,00 |
103,00 |
|
22 |
104,00 |
73,00 |
105,00 |
95,00 |
|
23 |
94,00 |
121,00 |
115,00 |
104,00 |
|
24 |
91,00 |
129,00 |
105,00 |
98,00 |
|
25 |
74,00 |
121,00 |
100,00 |
100,00 |
(Для абитуриентов 21—25 значения классифицирующей переменной Гне определены).
Основные результаты дискриминантного анализа:
Рассмотрим процедуру обработки, основные результаты и их интерпретацию, применив программу ЗР58 к данным примера 17.1.
ОБРАБОТКА НА КОМПЬЮТЕРЕ
Исходные данные фа*а Ейког) представляют собой 5 переменных (ЬезЫ, 1ез12, СезЬЗ, (:ез(:4, У) для 25 объектов; для последних 5 объектов значения У не определены (табл. 17.1).
Примечание. В данном случае мы выбираем пошаговый метод не столько для того, чтобы отсеять несущественные переменные, сколько для получения более подробных результатов, так как при установках по умолчанию программа 8Р88 не позволяет получить ряд важных показателей. Минимально возможные значения /'-критериев для включения и удаления переменных устанавливаем, чтобы получить пошаговые результаты вплоть до полного набора переменных.
нию А11 §гоир$ ечиа1 (Все группы равны по численности). В поле 018р1ау (Показывать) отмечаем флажком Са$е\«8е гезиНв (Результаты для всех объектов) — для получения результатов классификации для всех объектов. В поле Р1о1« (Графики) отмечаем флажком СотЫпеЛ §гоир$ (Совмещенные группы) — для графического изображения всех объектов в осях канонических функций. Нажимаем Сопйпие.
Примечание. В данном случае мы предполагаем, что соотношение численности групп (отличников, успевающих и неуспевающих студентов) заранее известно исходя из имеющегося соотношения. Если это не так, то разумнее принять версию о равной численности групп.
Примечание. Этот этап — сохранение результатов классификации — имеет смысл выполнять на последнем этапе анализа, когда выбрана окончательная модель предсказания.
Рассмотрим основные результаты дискриминантного анализа.
Поскольку обычно исследователя интересует общая эффективность предсказания, то лучше обратиться к соответствующим числовым результатам (статистикам) для каждого объекта:
А) Статистики для объектов:
Сагемд.ге ЗЬаЫзЫсз
Сазе ЫитЪег |
Ас(:иа1 |
РгесИсЬей |
Сгоир |
Сгоир |
|
1 |
1 |
1 |
2 |
0 |
0 |
3 |
1 |
1 |
4 |
0 |
0 |
5 |
1 |
0 (**) |
6 |
0 |
0 |
7 |
0 |
0 |
8 |
2 |
к**. |
9 |
2 |
2 |
10 |
1 |
1 |
11 |
0 |
0 |
12 |
2 |
2 |
Сазе ЫишЪег |
АсЬиа1 Сгоир |
РгесИсЬей Сгоир |
13 |
1 |
1 |
14 |
0 |
0 |
15 |
2 |
2 |
16 |
2 |
2 |
17 |
1 |
1 |
18 |
2 |
2 |
19 |
1 |
1 |
20 |
1 |
1 |
21 |
ипдгоирей |
1 |
22 |
ипдгоиред |
1 |
23 |
ипдгоиред |
0 |
24 |
ипдгоирей |
2 |
25 |
ипдгоирей |
2 |
** М1зс1азз1^1ед сазе
Эта таблица содержит указания на принадлежность каждого объекта к группе: действительную (АсШа1) и предсказанную на последнем шаге анализа (РгесНс1ес1). Предсказанные значения приведены и для последних пяти «(неизвестных» объектов. Ошибочные предсказания для двух объектов отмечены «звездочкой». Таким образом, точность предсказания составляет 90%, то есть очень высока.
Те же данные плюс значения вероятностей принадлежности каждого объекта к каждому классу сохранены как новые переменные в таблице исходных данных (Оа1а ЕсШог):
№ |
1е$г 1 |
1е$1 2 |
1е$1 3 |
1е$Г 4 |
У |
01$1_1 |
01512 |
Ош1_3 |
|
1 |
86,00 |
110,00 |
110,00 |
101,00 |
1 |
1 |
,044 |
,840 |
,116 |
24 |
91,00 |
129,00 |
105,00 |
98,00 |
> |
2 |
,001 |
,376 |
,623 |
25 |
74,00 |
121,00 |
100,00 |
100,00 |
1 |
2 |
,012 |
,492 |
,496 |
В исходных данных появляются новые переменные: 01з_1 — предсказанная принадлежность каждого объекта к одному из классов, 01з1_1, 01з1_2, 01з1_3 — значения апостериорных вероятностей принадлежности каждого объекта к каждому классу. Значения вероятностей позволяют судить, насколько уверенно объекты могут быть отнесены к тому или иному классу. Так, объект № 25 почти равновероятно может быть отнесен и ко второму (1) и к третьему (2) классу, а объект № 1 уверенно отнесен ко второму (1) классу.
В) Результаты АТМОУА для каждой дискриминанта ой переменной (см. табл. Тез1з оГ ЕциаЖу о Г Огоир Меапз).
Эти результаты позволяют отобрать для дискриминантного анализа только те переменные, различия по которым между группами статистически до-
ТевЪв оЕ ЕдиаНЪу оЕ Сгоир Меапв
ИНкз' ЬатЬсЗа |
Р |
<т |
сШ2 |
31д. |
|
СезС1 |
. 629 |
5.017 |
2 |
17 |
.019 |
СезС2 |
. 669 |
4.212 |
2 |
17 |
.033 |
СезСЗ |
.683 |
3 .952 |
2 |
17 |
.039 |
СезС4 |
. 569 |
6.444 |
2 |
17 |
.008 |
стоверны. В данном случае обнаружены статистически значимые различия групп по каждой из дискриминантных переменных. Более детальный результат можно получить, проведя многомерный А1ЧОУА в отношении дискриминантных переменных (см. главу 13). Помимо достоверности различия всех групп по каждой переменной, полезны будут множественные сравнения — для изучения попарных различий между группами по этим переменным.
С) Показатели пошагового анализа.
(§1ер\У1$е 81а11811С$) — это результаты, которые можно получить только при помощи пошагового метода.
Дискриминантные переменные для каждого шага
Уаг1аЫев 111 ЪЬе Апа1ув1в
31: ер |
То1егапсе |
Р Со |
КетоVе |
ИНкз ' ЬатМа |
|
1 |
СезС4 |
1.000 |
6 |
.444 |
|
2 |
СезС4 |
.864 |
7 |
.922 |
. 669 |
СезС2 |
.864 |
5 |
543 |
. 569 |
|
3 |
СезС4 |
.863 |
5 |
.223 |
.439 |
СезС2 |
.850 |
4 |
.873 |
.427 |
|
СезС1 |
.982 |
2 |
.231 |
.336 |
|
4 |
СезС4 |
. 665 |
2 |
.677 |
.323 |
СезС2 |
.850 |
4 |
.423 |
.381 |
|
СезС1 |
. 974 |
2 |
.150 |
.305 |
|
СезСЗ |
.743 |
764 |
.259 |
В таблице указаны толерантность, значения статистики Р-удаления и Х-Вилксадля каждой переменной на каждом шаге анализа. Видно, что переменная 1ез1 3 наименее значима для анализа, и ее, в случае необходимости, можно исключить.
Значения Х-Вилкса для каждого шага анализа
ЗСер |
ЫишЬег оЕ Уаг 1аЫез |
ЬатЬсЗа |
<3^2 |
аез |
ЕхасС Р |
||||
ЗСаС1зС1с |
йП |
<3€2 |
31д. |
||||||
1 |
1 |
. 569 |
1 |
2 |
17 |
6.444 |
2 |
17.000 |
.008 |
2 |
2 |
.336 |
2 |
2 |
17 |
5.802 |
4 |
32.000 |
. 001 |
3 |
3 |
.259 |
3 |
2 |
17 |
4.826 |
6 |
30.000 |
.001 |
4 |
4 |
.233 |
4 |
2 |
17 |
3 .744 |
8 |
28.000 |
.004 |
/,-Вилкса показывает, что на каждом шаге увеличивается дискриминатив- ная способность набора дискриминантных переменных (X уменьшается). Однако уменьшение >.-Вилкса от 3-го к 4-му шагу минимально, а статистическая значимость различения даже падает (с р = 0,001 до р = 0,004). Следовательно, присоединение переменной (ей 3 (на последнем шаге), несущественно увеличивая дискриминативную способность набора переменных, приводит к уменьшению статистической значимости решения. Это еще больше убеждает в возможности удаления переменной (ез! 3 из анализа. Однако для окончательного принятия решения об удалении переменных необходимо проверить, насколько при этом уменьшается точность классификации (по предсказанной классификации).
Попарное сравнение групп.
Ра1г\У1$е Сгоир Сошрапзопз (а, Ь, с, ф
ЗЬер |
У |
0 |
1 |
2 |
||||
1 |
0 |
Р 31д. |
2 . |
320 146 |
12 . |
686 002 |
||
1 |
Р 31д. |
2 . |
320 146 |
5. |
219 035 |
|||
2 |
Р 31д. |
12 |
686 002 |
5 |
219 035 |
|||
2 |
0 |
Р 51д. |
2 |
689 098 |
15. |
503 000 |
||
1 |
Р 51д. |
2 |
689 098 |
6. |
606 008 |
|||
2 |
Р Зхд. |
15 |
503 000 |
6 |
606 008 |
|||
3 |
0 |
Р 31д. |
3 |
306 049 |
13 . |
440 000 |
||
1 |
Р 31д. |
3 |
306 049 |
4 |
761 016 |
|||
2 |
Р 31д. |
13 |
440 000 |
4 |
761 016 |
|||
4 |
0 |
Р 31д. |
2 |
893 061 |
9 |
774 001 |
||
1 |
Р Згд. |
2 |
893 061 |
3 |
346 040 |
|||
2 |
Р Зхд. |
9 |
774 001 |
3 . |
346 040 |
а 1, 17 Йедгеез оЕ Егеейот Еог зСер 1.
Ъ 2, 16 Йедгеез оЕ 1:геейот ^ог зЬер 2.
с 3, 15 Йедгеез о1 ^геейот ^ог зЪер 3.
Й 4, 14 йедгеез о1 ^геейот ^ог зЬер 4.
В этой таблице для каждого шага приведены результаты проверки статистической достоверности различия групп друг от друга. Видно, что статистическая значимость различия всех трех групп друг от друга достигается на шаге 3 (без переменной 1е$13), а на шаге 4 статистическая достоверность, при включении этой переменной, даже падает.
По результатам пошагового анализа возникает впечатление, что переменная 1ех1 3 ничего не добавляет в различение классов. Однако попытка ее удаления из анализа приводит к тому, что количество ошибок при классификации увеличивается в два раза и составляет 20%. Поэтому целесообразно принять решение о сохранении всех дискриминантных переменных.
Следует отметить, что такое решение справедливо в отношении именно этих данных. При наличии большого количества дискриминантных переменных следует смелее удалять малозначимые переменные, добиваясь разумного компромисса между статистической значимостью результата и точностью предсказания.
Э) Итоги анализа канонических дискриминантных функций (Зшптагу оГ Сапотса1 В1зспттап1: Рипсйопз).
Собственные значения для канонических функций
Е1де1гуа1иев
РипсС10П |
Е1дет/а1ие |
% о{ |
Сити1а(:^е % |
Сапоп1са1 |
Уаг1апсе |
Согге1аЫоп |
|||
1 |
2.794(а) |
95 . 6 |
95 . 6 |
.858 |
2 |
.129(а) |
4.4 |
100.0 |
.338 |
а ПгзС 2 сапопхса! сИзсг1т1пап1: ЕипсЬгопз меге изесЗ 1п ЬЬе апа1уз1з.
Первая каноническая функция более чем в 20 раз более информативна (95,6%), чем вторая функция (4,4%).
Лямбда Вилкса для каждой функции
КИкв 1 ЬатЬда
ТезЬ оЕ |
ИНкз' ЬатЪда |
СЫ-здиаге |
а Г |
51д. |
Рипс1:1оп (з) |
||||
1 ЬЪгоидЪ 2 |
.233 |
22 . 549 |
8 |
. 004 |
2 |
.886 |
1.879 |
3 |
.598 |
Первая строка содержит значение X = 0,233 и статистическую значимость р = 0,004 для всего набора канонических функций, вторая строка содержит данные для оставшейся дискриминантной способности набора после исключения первой функции. В данном случае полный набор обладает очень высокой дискриминантной способностью, которая резко падает после исключения первой канонической функции. Отсутствие статистической значимости второй дискриминантной функции означает, что ее интерпретация в отношении генеральной совокупности сомнительна.
Значения канонических функций для групповых центроидов.
РипсЫопз аЪ Сгоир СепЫохйз
У |
РипсС1оп |
|||
1 |
2 |
|||
0 |
-1 |
955 |
- |
.282 |
1 |
- |
051 |
.405 |
|
2 |
2 |
023 |
- |
.259 |
ОпзЬапйагсЛгей сапоп1са1 сИзсгдлипапЬ ЕипсЬз-Опз еуа1иа(:ес1 аь дгоир теапз.
В этой таблице приведены координаты центроидов для всех групп. Они позволяют интерпретировать канонические функции относительно их роли с различении классов. На отрицательном полюсе расположен центроид для первой группы (0), на положительном — центроид для третьей (2) группы, а средняя (1) группа расположена между ними. То есть чем больше значение этой функции, тем выше вероятность высокой успешности обучения. На положительном полюсе второй функции расположена средняя (1) группа, на отрицательном — две остальные группы. То есть чем выше значение данной функции, тем больше вероятность средней успешности обучения.
Стандартизированные коэффициенты канонических функций
ЗЪапйагсНгей Сапопз.са1 ВгзсггтгпапЬ РипоЫоп СоеЕЕ1с1епЬз
РипсЬгоп |
||
1 |
2 |
|
ЬезЫ |
.538 |
. 496 |
СезС2 |
. 775 |
-.345 |
СезЬЗ |
.219 |
.922 |
ЬезЬ4 |
.673 |
- . 849 |
Эти коэффициенты позволяют определить соотношение вкладов переменных в каждую из канонических функций. Так, в первую каноническую функцию примерно с равным вкладом входят три из четырех переменных (кроме (ей 3): чем больше значения этих переменных, тем больше значение функции (то есть тем выше вероятность успешного обучения). Для второй канонической функции наиболее существенны переменные (е$( 3 и (ез( 4. Чем выше значение переменной (е§( 3 и ниже значение по переменной 1е$( 4, тем больше значение второй канонической функции, то есть тем выше вероятность средней успешности обучения.
Структурные коэффициенты канонических функций
ЗЬгисЬиге МаЬгхх
РипсЬ10п |
||
1 |
2 |
|
ЬезЫ |
.518 (*) |
-.240 |
1;езС2 |
.418 (*) |
-.254 |
ЬезсЗ |
.392 |
.526 (*) |
ЬезЫ |
.449 |
.451(*) |
Роо1е<3 каЬМп-дгоирз согге1а(:л.опз ЪеШееп сИзсг1тл.паЪ1пд Vа^^аЫе5 ап<3 зЬапйагсИгей сапопл.са1 сИзсгл.т1пап(: Еипсьз-опз УагхаЫез огйегей Ьу аЪзо1иЬе 312е оЕ согге1а{;1оп мхЬЫп ЕипсЬхоп.
* ЬагдезЬ аЬзо1и(;е согге1а(;10п ЪеЬмееп еасЬ уаг1аЫе апсЗ апу сИзсг1т1папе Еипс(:10п.
Как отмечалось, структурные коэффициенты, подобно факторным нагрузкам в факторном анализе, являются коэффициентами корреляции переменных с функциями. Следовательно, эти коэффициенты, как и в факторном анализе, позволяют интерпретировать канонические функции. Так, первая функция наиболее тесно связана с переменными 1ез1 4 и (ез! 2: чем больше значения этих переменных, тем больше значение функции (то есть тем выше вероятность успешного обучения). Вторая функция наиболее тесно связана с переменными 1ез1: 3 и 1ек1 1: чем больше значения этих переменных, тем больше вероятность средней успешности обучения, а чем меньше значения этих переменных, тем более вероятно, что студент будет либо отличником, либо неуспевающим.
Сапошса! 0|зспгтнпап4 РипсИопз
1
см О
с
о
4-»
о с
^ -1
-3 Д
-4-3-2-10 1 2 3 4
РипсИоп 1
Сапошса! 0|зспгп1пап1 Рипс4юпз
2
■ — Сгоир СеШгснйз
О -2 * -1
На графике изображены групповые центроиды (Сгоир СепСкмёз) и объекты в осях канонических функций. График помогает интерпретировать канонические функции и визуально оценить качество классификации по плотности объектов внутри каждого класса и по отчетливости границ между классами.
Наконец, в соответствии с отмеченным флажком графиком для совмещенных групп, получаем графическое изображение канонических дискриминантных функций.
Глава 18
МНОГОМЕРНОЕ ШКАЛИРОВАНИЕ
НАЗНАЧЕНИЕ
Основная цель многомерного шкалирования (МШ) — выявление структуры исследуемого множества объектов — близка к цели факторного и кластерного анализа. Так же, как в факторном анализе, под структурой понимается набор основных факторов (в данном случае — шкал), по которым различаются и могут быть описаны эти объекты. Однако в отличие от факторного, но подобно кластерному анализу исходной информацией для МШ являются данные о различии или близости объектов.
В психологии чаще всего исходными данными для МШ являются субъективные суждения испытуемых о различии или сходстве стимулов (объектов). Центральное положение МШ заключается в том, что в основе таких суждений лежит ограниченное число субъективных признаков (критериев), определяющих различение стимулов, и человек, вынося свои суждения, явно или неявно учитывает эти критерии. Основываясь на этом положении, решается главная задача МШ— реконструкция психологического пространства, заданного небольшим числом измерений-шкал, и расположение в нем точек-сти- мулов таким образом, чтобы расстояния между ними наилучшим образом соответствовали исходным субъективным различиям. Таким образом, шкала в МШ интерпретируется как критерий, лежащий в основе различий стимулов.
Геометрические представления МШ основаны на аналогии между понятием различия в психологии и понятием расстояния в пространстве. Чем более субъективно сходны между собой два объекта, тем ближе в реконструируемом пространстве признаков должны находиться соответствующие этим объектам точки. Исходя из такой дистанционной модели, по субъективным данным о различии одного объекта от другого реконструируется их взаимное расположение в пространстве нескольких признаков. Эти признаки трактуются как субъективные шкалы — критерии, которыми пользуется человек при различении объектов. А расстояние между объектами в этом пространстве есть определенная функция от исходных оценок различия.
Общая схема МШ формально может быть представлена следующим образом. На основе суждений экспертов (испытуемых) в отношении интересую-
Эксперты могут не только попарно сравнивать, но и упорядочивать объекты...
щих исследователя объектов вначале составляется симметричная матрица попарных различий (или матрицы — по одной для каждого эксперта). Допускается и использование данных о предпочтениях, содержащих упорядочивание каждым экспертом совокуп
ности объектов по степени их предпочтения. Сравниваемыми объектами могут быть члены коллектива, предметы домашнего обихода, литературные отрывки, цветовые оттенки и т. д. Модель МШ предполагает, что эксперт производит сравнение, осознанно или нет пользуясь одним или несколькими признаками этих объектов. В отношении сотрудников подразделения такими признаками могут быть должностной статус, профессионализм, доброжелательность и т. д.
В процессе МШ определяется, сколько признаков-ш/сал необходимо и достаточно для построения координатного пространства и размещения в нем точек-объектов. Если 8,у — это оценка экспертом различия между объектами / и у, а число признаков, которыми пользуется эксперт при сравнении, — К, то задача многомерного шкалирования сводится к определению всех хш и х]к как координат этих объектов в пространстве А" признаков. При этом предполагается, что число критериев, которыми пользуется эксперт, значительно меньше числа сравниваемых объектов. Если, например, / иу — сотрудники, а признак к — доброжелательность, то х1к и х]к — доброжелательность этих сотрудников. Важно отметить, что исследователю эмпирически даны только оценки различий 8„. Величины значений признаков х^ и Хд непосредственно не даны, но оцениваются в результате МШ в виде матрицы:
X,, ... х1К
Х =
хР\ ■■■ ХРК
где Р — количество сравниваемых объектов, К — количество шкал.
Элементы ^указанной матрицы рассматриваются как координаты Р объектов в пространстве А"признаков. Пространство определено так, что чем больше исходное различие между объектами, тем дальше друг от друга расположены объекты в этом пространстве. Каждая шкала результирующего пространства получает интерпретацию через объекты, находящиеся на противоположных полюсах шкалы.
Следует отметить, что исходными данными для МШ могут являться не только субъективные оценки различий, но и обычные данные типа «объект- признак». Но поскольку МШ предназначено для анализа различий, то для данных типа «объект-признак» необходимо, во-первых, определить, что бу
дет подлежать шкалированию — сами объекты (строки) или признаки (столбцы). Во-вторых, необходимо задать метрику различий — то, как будут определяться различия между всеми парами изучаемых элементов. Проблема выбора мер различия обсуждается в следующем разделе данной главы1.
Выбирая МШ, исследователь должен отдавать себе отчет в том, что это довольно сложный метод, применение которого к тому же связано с неизбежными потерями исходной информации о различии объектов. Поэтому, если задача исследования ограничивается классификацией объектов и нет оснований полагать, что эта классификация обусловлена небольшим числом независимых причин — критериев различий, то целесообразнее воспользоваться более простым методом — кластерным анализом (см. главу 19).
Рассмотрим исходные данные и основные результаты применения МШ на простом примере. Попытаемся, исходя из субъективных оценок расстояний между совокупностью объектов, реконструировать конфигурацию их взаимного расположения. Допустим, субъекту предъявляется 10 объектов, расположенных на плоскости в некоторой произвольной конфигурации, и дана инструкция оценить расстояние между каждым объектом и всеми остальными, присвоив 1 наименьшему расстоянию, 2 — следующему по величине и т. д. Примерно одинаковым расстояниям разрешим присваивать одинаковые числовые значения. В результате выполнения такого задания наблюдатель заполнил нижний треугольник матрицы попарных различий между объектами, в данном случае — расстояний (табл. 18.1). Можно ли восстановить исходную конфигурацию объектов по такой матрице различий? Оказывается, МШ справляется с подобными задачами. Применение программы неметрического МШ (программа 8Р88) дает 2-шкальное решение (табл. 18.2).
Табл и ца 18.1 Субъективные оценки расстояний между 10 объектами
№ |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
1 |
0 |
|||||||||
2 |
1 |
0 |
||||||||
3 |
2 |
1 |
0 |
|||||||
4 |
3 |
2 |
1 |
0 |
||||||
5 |
3 |
2 |
1 |
1 |
0 |
|||||
6 |
3 |
2 |
2 |
2 |
1 |
0 |
||||
7 |
3 |
3 |
3 |
3 |
2 |
1 |
0 |
|||
8 |
2 |
2 |
2 |
3 |
2 |
1 |
1 |
0 |
||
9 |
1 |
1 |
2 |
3 |
2 |
2 |
2 |
1 |
0 |
|
10 |
2 |
1 |
1 |
2 |
1 |
1 |
2 |
1 |
1 |
0 |
1 В связи с тем, что типичными исходными данными для МШ в психологии являются все же непосредственные оценки различий, изложение этой главы сопровождается примерами анализа исходной информации именно этого типа. Тем не менее подчеркнем, что для МШ допустимо применение и любых других исходных данных.
Табл и ца 18.2
Результаты МШ субъективных оценок расстояний между 10 объектами (по данным табл. 18.1)
№ объектов |
Шкала 1 ДОш. 1) |
Шкала 2 (Оип. 2) |
1 |
0,932 |
-0,006 |
2 |
0,471 |
-0,302 |
3 |
0,019 |
-0,559 |
4 |
-0,471 |
-0,804 |
5 |
-0,497 |
-0,257 |
6 |
-0,493 |
0,263 |
7 |
-0,461 |
0,810 |
8 |
0,026 |
0,558 |
9 |
0,474 |
0,296 |
10 |
0,000 |
0,000 |
Каждая строчка таблицы — это координаты соответствующего объекта на плоскости. Графическое изображение всех 10 точек, в соответствии с табл. 18.2, приведено на рис. 18.1.
Взаимное расположение объектов в точности соответствует исходной конфигурации, предлагаемой наблюдателю (рис. 18.2). При этом обращает на себя внимание тот факт, что информация, полученная от наблюдателя, носит неметрический характер, так как расстояния оценивались по шкале порядка. Итоговая же конфигурация воспроизводит метрические соотношения в расположении объектов. Это связано с тем, что информация о различиях, содержащаяся в матрице субъективных оценок, хотя и является по сути порядко-
0,5
см с о
0,0
П>
Е
ь
-0,5
-1,0 -0,5 0,0 0,5 1,0
й1тепзюп 1
Рис. 18.1. Субъективное пространство 10 объектов по табл. 18.2
-1,0
1,0
В
О
® О © © ©
О © © ©
л/
Рис. 18.2. Стимулы-объекты для наблюдателей А и В
вой, но обладает избыточностью, которая и позволяет восстановить метрические соотношения.
Сходные эксперименты проводились и с географическими данными (Те- рехина А. Ю., 1986). Например, испытуемым предлагалось оценить расстояния между 30 городами из различных частей земного шара, принимая за стандарт (100%) расстояние между Северным и Южным полюсами. Получаемые в результате применения МШ двумерные конфигурации в достаточной мере соответствуют истинному расположению выбранных городов на географической карте.
Если от каждого эксперта получена матрица попарных различий Р объектов, то для таких данных используется многомерное шкалирование индивидуальных различий. При этом предполагается, что существует общее групповое пространство координат объектов в пространстве К общих признаков. Эксперты же отличаются тем, какой «индивидуальный вес» каждый из них придает тому или иному из К признаков при сравнении объектов. Соответственно, помимо групповой матрицы координат объектов, результатом этого варианта МШ является матрица индивидуальных весов размерностью КхМ
Предположим, что объекты 1-10 (рис. 18.2) — объемные фигуры, расположенные на плоской поверхности в виде столбиков. Мы привлекаем двух наблюдателей А и В и располагаем их так, как показано на рисунке: чтобы они видели группу объектов на некотором отдалении вдоль плоскости, на которой расположены объекты, и не выше высоты объектов. Часть объектов при этом будет заслонять друг друга. Для наблюдателя А при этом не будут различимы пары объектов 1 и 10, 2—5, 9—6. Соответственно, для другого наблюдателя неразличимы пары 4-10, 3-9, 5-8.
Наблюдателям дается та же инструкция, что и в предыдущем примере: оценить расстояние между каждым объектом и всеми остальными, присваивая 1 наименьшему расстоянию, 2 — следующему за ним по величине и т. д. Расстоянию между невидимым объектом и объектом, их заслоняющим, наблюдатели присваивают значение 0 как неразличимым объектам. Результатом проведения такого испытания являются две матрицы попарных различий
часть iii. многомерные методы и модели
Табл и ца 18.3 Результаты МШ индивидуальных различий восприятия 10 стимулов двумя наблюдателями
ЗИтШих ЫитЬег |
ОШ.1 |
ОШ.2 |
vi |
-1,73 |
0,00 |
у2 |
-1,15 |
-0,58 |
уЗ |
-0,58 |
-1,15 |
у4 |
0,00 |
-1,73 |
у5 |
0,58 |
-0,58 |
у6 |
1,15 |
0,58 |
у7 |
1,73 |
1,73 |
у8 |
0,58 |
1,15 |
у9 |
-0,58 |
0,58 |
ую |
0,00 |
0,00 |
5иУес1 ЫитЬег |
5иЪ)е(д ХУещЬй |
|
НА) |
0,00 |
1,00 |
2(5) |
1,00 |
0,00 |
между 10 объектами, в каждой из которых по 3 ложных нулевых значения. К таким данным применима модель МШ индивидуальных различий. Результаты обработки (программа 8Р88) приведены в табл. 18.3. 10 верхних строк этой таблицы — координаты объектов в двух шкалах, а две нижние строки — индивидуальные веса шкал.
Величина индивидуального веса по соответствующей шкале показывает, насколько учитывается признак при различении объектов. Как и следовало ожидать, каждый наблюдатель учитывает только одну координату — точку зрения на объекты, игнорируя другую. Тем не менее, двух точек зрения
-2 -1,5 -1 -0,5 0 0,5 1 1,5 2
Рис. 18.3. Субъективное пространство 10 объектов по данным табл. 18.3
2,00 1,50 1,00 0,50 0,00 -0,50 -1,00 -1,50 -2,00
в данном случае достаточно, чтобы восстановить исходную конфигурацию объектов с точностью до порядковых отношений между расстояниями (рис. 18.3).
Метрические отношения между объектами не удалось воспроизвести точ- но в связи с малым числом наблюдателей. Если бы был третий наблюдатель, точка зрения которого отличалась от первых двух, то восстановились бы и метрические отношения.
Если эксперты не оценивают различия, а упорядочивают объекты по степени предпочтения, то применяется модель предпочтения. Исходными данными для МШ предпочтений является матрица размером ИхР, где N строк соответствуют экспертам, а Р — это столбцы, содержащие ранговые места предпочтений объектов экспертами.
В дистанционной модели предпочтений каждый эксперт характеризуется координатами своей идеальной точки в пространстве /^признаков. Эти координаты — такая комбинация характеристик объектов, которую эксперт считает идеальной. Результирующая матрица содержит, помимо координат объектов, и координаты идеальных точек — по одной для каждого эксперта.
Для нашего примера эксперты могли бы упорядочивать объекты по степени их наблюдаемой близости. Таким образом, описание объектов, полученное от каждого наблюдателя, стало бы экономнее. Результатом применения модели предпочтения была бы конфигурация объектов и «идеальных точек» наблюдателей, расположенных вблизи тех объектов, которые оказались рядом с наблюдателями.
Итак, МШ в своих основных трех модификациях позволяет решать три группы задач:
МЕРЫ РАЗЛИЧИЯ
Непосредственными данными для многомерного шкалирования является информация о различиях между объектами. Эти различия должны быть определены между всеми парами объектов и иметь числовое выражение. Первое требование означает, что анализируется матрица попарных различий УУхА^ (где N — количество изучаемых объектов). Второе условие требует измерения различия, то есть введения метрики. Существуют четыре стандартных критерия, которым должна удовлетворять мера различия, чтобы быть метрикой:
Эти очевидные требования, однако, не всегда выполняются в отношении некоторых показателей различия. Например, в случае социальных взаимных предпочтений: Петру нравится Маша, но Маше Петр не нравится. В этом случае симметрия не соблюдена, показатель не может быть метрикой, и такие данные должны быть преобразованы к симметричному виду (разумеется, с потерей информации об асимметрии).
Из критерия симметрии следует, что матрица попарных различий ./Ух ТУ является симметричной относительно главной диагонали. Из критерия неразличимости идентичных объектов следует, что на главной диагонали этой матрицы различий расположены нули.
Выбор меры различия является органической частью исследования, определяется его процедурой и характером получаемых данных. По процедуре исследования можно выделить три типичные ситуации: испытуемые непосредственно оценивают степень различия (близости) изучаемых объектов; имеются данные об условной или совместной встречаемости событий (объектов); имеется совокупность оценок для множества объектов — используются меры различия профилей оценок. Отметим, что для МШ чаще всего используют непосредственные оценки различий. Остальные меры различий более специфичны для кластерного анализа.
Непосредственная оценка различий
Существует большое количество достаточно хорошо разработанных процедур субъективной оценки различия между объектами: это и прямая оценка различия пары объектов при помощи заданной шкалы (от 5 до 10 градаций) или графически, и сортировка пар по категориям различия (от идентичных до максимально различных). Основная сложность этих процедур — большое количество пар объектов, предлагаемых испытуемым для сравнения. Для N объектов должно быть оценено количество пар, равное N(N-1)/2. Например, если объектов 20, испытуемый должен оценить различия 190 пар объектов.
Самый простой способ организации предъявления всех возможных пар объектов — табличный ТУх^У, когда испытуемый, оценивая различия, заполняет нижний (верхний) треугольник таблицы. Однако при таком предъявлении на оценку различий между объектами влияют не только сами стимулы, но и порядок их предъявления. Речь идет о так называемых пространственных и временных искажениях. Пространственные искажения — это влияние порядка следования объектов в каждой паре (второй объект в паре воспринимается иначе, чем первый). Временные искажения — это влияние порядка следования пар (пары в начале предъявления воспринимаются иначе, чем в конце ряда). Эти искажения могут быть компенсированы путем случайного упорядочивания порядка следования как объектов в паре, так и самих пар.
При большом числе объектов можно воспользоваться неполным планом, когда каждая пара оценивается не всеми испытуемыми. В неполных планах пары делятся на подмножества, и каждый испытуемый оценивает пары только в одном подмножестве. Каждое из подмножеств оценивается одинаковым числом испытуемых.
При непосредственной оценке различий сложных объектов, например, художественных произведений, людей и т. д., следует иметь в виду принципиальную многомерность таких объектов. Это может иметь своим следствием выделение таких тривиальных критериев-шкал, как рост или пол для людей, толщина или формат для книги и пр. Чтобы избежать таких ситуаций, целесообразно ограничивать контекст сравнения в соответствии с целями исследования — при помощи инструкции или процедуры предъявления пар для сравнения.
ПРИМЕР
В исследовании восприятия студентами учебных курсов, проведенном С. Лященко под нашим руководством', студентам предъявлялись пары этих курсов для сравнения. Для ограничения контекста сравнения в инструкции студентам предлагалось представить себе учебный курс, который бы по содержанию во всех отношениях их устраивал («идеал»). Перед сравнением каждой пары объектов каждому испытуемому предлагалось отметить тот из них, который ближе к «идеалу». Ограничение контекста позволило исключить такие тривиальные основания сравнения, как, например, пол преподавателя (именно такой критерий оказался главным на предшествующем этапе исследования, которое проводилось без ограничения контекста сравнения).
Результаты социометрии — матрицу взаимоотношений — тоже допустимо рассматривать как вариант прямой оценки различия. Ясно, что такие матрицы — несимметричные, следовательно, получаемые данные требуют предварительной оцифровки и приведения к симметричному виду. Предложенный нами подход продемонстрирован на примере обработки данных социометрии в конце главы 19.
Условные и совместные вероятности
Условные вероятности применяются в исследованиях, где в качестве меры различия объектов (стимулов, событий) л: и у выступает вероятность того, что объект х не встречается при наличии объекта у. Типичные исследования подобного рода — эксперименты по узнаванию и эксперименты по переходу. В первом случае исследователь предъявляет ТУ стимулов и просит испытуемого каждый раз назвать, какой из N шу был предъявлен. Эксперимент повторяется многократно. По результатам исследования заполняется таблица ТУхУУ, строки которой — стимулы, столбцы — ответы. В случае совпадения стимула и ответа к содержимому соответствующей ячейки прибавляется 0, в противном случае — 1. Затем содержимое каждой ячейки делится на количество экспериментов. При таком анализе предполагается, что чем более похожи стимулы, тем чаще они будут путаться. Такие матрицы несимметричны, но приводятся к симметричному виду путем сложения строк и столбцов с одинаковыми номерами. Иначе говоря, исходная матрица складывается с транспонированной.
Аналогичным образом обрабатываются данные в экспериментах по переходу. Строки в матрице УУхЛ^при этом — состояния в начале процесса, столбцы — при окончании (например, профессиональная ориентация до обучения и после). Предполагается, что чем ближе состояния, тем чаще будет переход из одного состояния в другое.
Меры различия профилей для количественных переменных
Профиль — это набор оценок (количественных признаков) объекта. Если объекты — это испытуемые, то профилем могут быть их оценки по каким- либо тестам. Сравниваемыми объектами могут быть и сами признаки, и объекты, оцениваемые испытуемыми, например, по степени предпочтения. Тогда профилем будет совокупность индивидуальных значений соответственно для признака или оцениваемого объекта. Таким образом, меры различия профилей могут применяться к наиболее типичным психологическим данным — типа «объект-признак».
Меры взаимосвязи — самые распространенные и очевидные показатели различия в социальных науках, в том числе в психологии. Иногда, например, в программе 8ТАТ18Т1СА, в качестве меры различия используется величина 1 - г (где г — коэффициент корреляции Пирсона). Чем более сходна форма профилей оценок для двух объектов или чем более согласованы изменения индивидуальных оценок для двух признаков, тем более они похожи (выше коэффициент корреляции), а указанная мера различия — ближе к нулю. Следует отметить важную особенность использования коэффициента корреляции в качестве меры различия. Если существует сильная взаимосвязь двух признаков, но она отрицательна (отрицательный коэффициент корреляции), то при анализе эти признаки будут трактоваться как сильно различающиеся. Но если поменять знак одной из переменных, они станут очень близки. Таким образом, коэффициенты корреляции могут являться адекватной мерой различия (близости) только в том случае, если все они положительны (или взяты по абсолютной величине — без учета знака).
Меры расстояния — наиболее специфичные показатели различия именно для профилей, то есть множества ^признаков, измеренных для каждого объекта. Различие между двумя объектами, выраженное мерой расстояния, показывает, насколько в среднем различаются совокупности оценок для двух объектов, или насколько в среднем удалены друг от друга профили оценок. Другая трактовка меры расстояния — геометрическая. Это расстояние между двумя точками (объектами) в пространстве, размерность которого равна числу признаков. Значения признаков для объекта трактуются как координаты, задающие его положение в этом пространстве.
Есть два способа задания расстояний, и выбор способа зависит от задачи исследования. Обычно исследователь имеет таблицу (матрицу) данных NхР, где N — строки (испытуемые, объекты), Р — столбцы (признаки, оцениваемые объекты). Если исследователя интересуют различия между объектами или испытуемыми (с точки зрения, например, их классификации), то ему необходимо задавать меры различия (расстояния) между строками. Если же ему важны основания классификации признаков, то выбираются меры различия (расстояния) между столбцами.
Существует множество мер расстояния, но наиболее часто используются две: евклидово (или его квадрат) и «метрика города».
Евклидово расстояние легко представить себе как кратчайшее расстояние (по прямой) между двумя точками (объектами) в пространстве двух, трех и более координат — в соответствии с числом признаков. Наиболее подходит эта метрика для метрических данных (в шкале интервалов или отношений). Если число признаков Р, то евклидово расстояние между объектами с номерами / и у выражается формулой:
_р=1
где х1р\\ х]р — значения признака р для объектов с номерами / и у соответственно. В пространственном представлении эти значения трактуются как координаты объектов / и у по оси р.
«Метрика города» (синонимы — «Манхаттан», «городских кварталов» или сИу-Ыоск) — получила свое название по аналогии с длиной пути пешехода,
движущегося от одного объекта к другому в городе. Пешеход вынужден обходить кварталы домов по ломаной линии. Каждый «квартал» при этом — это абсолютная разность между значениями двух объектов по одному из признаков. «Метрика города» больше подходит для неметрических данных (порядковых и, отчасти, бинарных) и вычисляется по формуле:
р
Важное замечание относительно мер расстояния касается разного масштаба оценок (переменных). Если переменные представлены в разных шкалах, имеют разный масштаб (средние и стандартные отклонения о), то на расстояние больше будут влиять переменные, имеющие больший разброс (дисперсию). Чтобы уравнять влияние переменных на расстояние между объектами, целесообразно до вычисления расстояний нормировать переменные (делить на стандартное отклонение) или преобразовать их в г-оценки.
Заключая обзор мер различия, следует отметить одно обстоятельство. Наиболее частый вид данных в психологии — это множество признаков, измеренных у множества испытуемых. И наиболее вероятно, что исследователь предпочтет, выбирая многомерное шкалирование или кластерный анализ, опираться на меры различия профилей. В этой ситуации исследователь должен отдавать себе отчет в том, что получаемые показатели различия между объектами не несут никакой иной информации, кроме констатации того, что субъект Л по измеренным признакам более похож на субъекта В, чем на субъекта С. А информация о том, по каким признакам различия больше, а по каким — меньше, утрачивается при вычислении расстояний. Таким образом, одни и те же значения различий между парами объектов могут быть обусловлены разницей в значениях по разным признакам. Это обстоятельство сильно затрудняет интерпретацию мер расстояния. Иначе дело обстоит, если меры различия профилей используются в отношении данных о субъективных предпочтениях, когда вычисляются меры различия между объектами предпочтения по множеству субъективных оценок (между столбцами — оцениваемыми объектами). Здесь интерпретация достаточно очевидна: объекты будут тем ближе, чем ближе в среднем их располагают субъекты при упорядочивании по степени предпочтения. Вообще говоря, если у исследователя есть выбор при планировании инструментария, для классификации объектов следует предпочесть непосредственные оценки различия, данные о предпочтениях или условные и совместные вероятности.
Меры различия профилей для номинативных переменных
Меры различия для частот — применяются в отношении данных типа «объект-признак», для которых каждый признак представляет собой абсолют
ную частоту некоторого события для каждого из объектов. В этом случае в качестве мер различия между объектами компьютерные программы предлагают вычислять специфические меры различия для частот (Соип1$ Меазигез): хи-квадрат (СЫ-$яиаге) или фи-квадрат (РЫ-зяиаге). Мера хи-квадрат вычисляется по формуле для %2-Пирсона (см. главу 9), а мера фи-квадрат — это величина хи-квадрат, нормализованная путем деления ее на квадратный корень общей суммы частот.
Меры различия для бинарных переменных — применяются, если все переменные набора являются бинарными. Для этого случая в компьютерных программах предусмотрен широкий набор бинарных мер различия (Втагу Меа§иге$). Например, в программе 8Р88 предлагается 6 мер для МШ и 27 (!) мер для кластерного анализа. Все эти меры различия основаны на представлении о четырехклеточной таблице сопряженности двух бинарных переменных Хи У:
У |
|||
1 |
0 |
||
* |
1 |
а |
Ь |
0 |
с |
й |
где а — количество объектов, для которых и по X и по У значения равны 1, и т. д. Приведем некоторые меры различий для бинарных переменных. Квадрат евклидова расстояния (8циагей ЕисШеап йЫапсе)\ й= Ъ + с.
Евклидово расстояние (ЕисШеап йШапсе)\ с1 = VЬ + с . Коэффициент сопряженности ср-Пирсона (РМ 4-ро 'т1з согге1а(юп):
ай-Ъс
ф= ,
у1(а + Ь)(с + с1)(а + с)(Ь + с1)
О-коэффициент Юла (Уи1е'з ()): 0 = ———
аё + Ьс'
Величина различий (8'це йЩегепсеу. й = ——— г-
(|а + Ь + с + с1у'
Простой коэффициент совстречаемости (81тр\е та(скм%)\ (1 = —
а + Ь + с + й'
То, какая мера предпочтительней, зависит оттого, какая роль в исследовании отводится частотам а, в, с и й.
НЕМЕТРИЧЕСКАЯ МОДЕЛЬ
Это основной вариант многомерного шкалирования, применяемый в настоящее время. Он лежит в основе всех остальных вариантов метода. Исходные данные для этого метода — матрица размерностью РхР, каждый элемент
которой — мера (оценка) различия между двумя объектами из Р. Рассмотрим кратко основные математико-статистические идеи метода, необходимые для его использования на практике.
Многомерное шкалирование и исторически, как новый шаг в математике, и процессуально — как последовательность обработки данных компьютерной программой, начинается с метрического шкалирования, предложенного в 50-х годах У. Торгерсоном. В модели Торгерсона вводится жесткое предположение о том, что оценки различия между объектами равны линейному расстоянию между ними в евклидовом пространстве.
Пусть 5,у — имеющаяся в распоряжении исследователя оценка различия между объектами / и у. и х]к — координаты этих объектов по оси к, одной из осей искомого пространства размерностью К. Расстояние меледу объектами в искомом пространстве обозначим как йу. Тогда основное предположение Торгерсона можно выразить формулой:
(18.1)
Торгерсон показал, что при соблюдении этого условия возможен переход от исходной матрицы различий между стимулами к их координатам в пространстве А" признаков. Для этого необходимо прежде всего пересчитать исходную матрицу различий в матрицу «скалярных произведений» — путем двойного центрирования, чтобы среднее значение элементов каждой строки и каждого столбца было равно 0. Элементы такой матрицы обозначим как <5*. Тогда, по Торгерсону, справедливо выражение: к
8* = или в матричной форме: Д* = XX',
к=\
где X — матрица координат стимулов, размерностью РкК.
Это уравнение аналогично главному уравнению факторного анализа, и решается оно относительно ^методом главных компонент с заданным числом К.
В современных алгоритмах МШ метод Торгерсона используется на этапе предварительной оценки координат объектов по матрице исходных различий. Далее следует неметрический этап, соответствующий неметричности исходных данных. На этом этапе исходят из требования соответствия рангового порядка расстояний между объектами в результирующем пространстве ранговому порядку исходных различий, то есть, используя принятые обозначения:
^у ^ 8,у < 5/т для любых /,у, I, т — номеров объектов.
к=1
Основной мерой выполнения этого требования является специальный показатель, который называется стресс — мера отклонения итоговой конфигурации объектов от исходных оценок различия в смысле указанного требования рангового соответствия. Иногда дополнительно применяют коэффициент отчуждения тоже как меру подгонки неметрической модели к данным о различии.
Не рассматривая подробно вычислительные проблемы многомерного шкалирования, укажем, что его алгоритм направлен на нахождение оценок координат объектов, минимизирующих значение стресса. Построен этот алгоритм как градиентная процедура. Первый шаг алгоритма — получение стартовой конфигурации, как правило, методом Торгерсона. На каждом последующем шаге, или итерации, координаты стимулов изменяются в сторону уменьшения значения стресса, вычисленного на предыдущем этапе. Итерации повторяются многократно, до выполнения одного из трех заданных изначально условий (в программе 8Р88): достижения минимального значения стресса; достижения минимальной разницы между последним и предыдущим значениями стресса; выполнения максимального заданного числа итераций. Каждое из трех условий задано в программе «по умолчанию», но может изменяться пользователем. Уменьшая пороговые величины стресса и его изменения, увеличивая максимальное число итераций, пользователь может добиться повышения точности окончательного решения. Показателем точности является конечная величина стресса. Наиболее приемлемые величины стресса находятся в диапазоне от 0,05 до 0,2.
Одна из основных проблем, возникающих перед исследователем в МШ — это проблема размерности К. Как и при проведении факторного анализа, в МШ требуется предварительное определение числа шкал. Поэтому от исследователя требуется получить несколько решений в пространствах разной размерности и выбрать из них лучшее. Один из критериев размерности, применяемый для предварительной оценки числа шкал, аналогичен критерию отсеивания Кеттелла в факторном анализе: строится график зависимости стресса от числа шкал по результатам решения в разных размерностях. Истинная размерность соответствует точке перегиба графика после резкого его спада.
Другой критерий числа шкал — абсолютная величина стресса. Если решение одномерно, то приемлемая величина стресса — менее 0,1. Если решение размерностью 2 и выше, то приемлемы значения стресса, меньшие 0,1-0,15. Однако если уровень ошибок измерения или выборки высок, то можно признать решение и с более высокими значениями стресса. Дополнительно вычисляется величина Л22 (Н.80), которая показывает долю дисперсии исходных различий (от единичной), учтенную выделенными шкалами. Чем ближе К.80 к единице, тем полнее данные шкалы воспроизводят исходные различия между объектами.
Окончательный выбор размерности решения определяется на основе критериев интерпретируемости и воспроизводимости, так же, как в факторном анализе. Тем не менее, при размерности 2 и выше, следует избегать решений с величиной стресса выше 0,2. Обычный путь для этого — повышение размерности и исключение объектов.
Результаты применения метода — таблица координат объектов в пространстве А" шкал-признаков, величины стресса и Я8(), интерпретация шкал и взаимного расположения объектов по таблице координат.
ПРИМЕР 18.1
Исследовалась структура представлений студента о многомерных методах, применяемых в психологии. Студенту было предложено сравнить попарно по степени различия пять методов: множественный регрессионный анализ (МРА), дискриминантный анализ (ДА), кластерный анализ (КА), факторный анализ (ФА) и многомерное шкалирование (МШ). При сравнении было предложено использовать 5-балльную шкалу (1 — очень похожи, 5 — совсем разные). Результаты сравнения приведены в табл. 18.4.
Таблица 18.4
Результаты попарного сравнения пяти методов многомерного анализа
Методы |
Обозначения |
МРА |
ДА |
КА |
ФА |
МШ |
МРА |
МКА |
0 |
||||
ДА |
БА |
2 |
0 |
|||
КА |
КА |
5 |
2 |
0 |
||
ФА |
РА |
2 |
3 |
5 |
0 |
|
МШ |
МБЗ |
5 |
5 |
3 |
3 |
0 |
Обработка на компьютере
Для обработки воспользуемся данными примера 18.1. Исходные данные (Ра1а ЕсИ1ог) представляют собой нижний треугольник матрицы попарных различий между 5 объектами (табл. 18.4).
Примечание. В последних версиях 8Р88 наряду с вариантом АЬ8САЬ
предлагается более современный вариант многомерного шкалирования РКОХ- 8САЬ. Этот последний вариант, на наш взгляд, действительно более удобен и совершенен. Но поскольку многие пользуются версиями 8Р88, в которых программы РК.ОХ8САЬ еще нет, мы воспользуемся вариантом АЬ8САЬ. Тем более что результаты обработки хоть и различаются, но не существенно. Для тех, кому доступна программа РКОХ8САЬ, не составит большого труда перейти к ней после знакомства с программой АЬ8САЬ.
применяется несимметричная квадратная матрица различий, например, как результат социометрии. В этом случае указывается соответствующая опция: 8Ьаре... 8диаге а5утте(пс.
Параметры Ьеуе! оГ теа$игетеп( (Уровень измерения) можно не менять и оставить принятые по умолчанию ОпНпа): (Порядковый:) их изменение практически не меняет результаты. Разве что можно поставить флажок ШЫе Ней оЬзегуаНоп (Корректировать связанные наблюдения) — для устранения влияния связей (повторов) в рангах.
Убеждаемся, что установлено СопйШопаШу: Ма1пх (Условие подгонки: вся матрица).
После задания всех параметров модели нажимаем СопШие.
П р и м е ч а н и е. В поле СгНепа (Критерии) минимальная величина стресса явно занижена: вполне достаточна величина 0,1. Для увеличения точности решения можно увеличить количество итераций и уменьшить величину сходимости стресса (разности стресса на последней и предыдущей итерациях). Но при этом следует внимательно просмотреть по результатам «историю» итераций, так как там могут быть локальные минимумы величины стресса.
После задания всех параметров обработки и вывода результатов нажимаем СопНпие.
Нажимаем ОК и получаем результаты.
А) «История» итераций, величины стресса и К.80:
11:егаЬ10п МзСогу Еог СЬе 2 сИтепз:.опа1 во1иЬ1оп
(История итераций для 2-шкального решения.)
Уоипд'з З-зЬгезз Еогти1а 1 13 изе
(Применена формула 5-стресса Юнга.)
1Ьега(:1оп З-зЬгезз 1тргоуетепЬ
(Итерация) (5-стресс) (Улучшение)
1 .00000
1Ьега(;10П8 зЬоррей Ьесаиве З-зЪгезз 13 1езз ЬЬап .005000
(Итерации остановлены, поскольку 8-стресс меньше, чем 0,005.)
ЗСгезз Vа1иез аге Кгизка1'з зСгезз Еогши1а 1.
(Величина стресса вычислена по формуле 1 Краскала.)
Рог таЬггх
(Для всей матрицы)
ЗЬгезз = .00000 К5<Э = 1.00000.
История итераций показывает, что минимальная величина достигнута уже на первом шаге, что на самом деле встречается очень редко. Обычно при большем количестве объектов проблемой является слишком большая величина стресса. Окончательная величина стресса (по формуле 1 Краскала) и величина свидетельствуют о полном соответствии решения исходным данным.
ка а |
с1а а тга о |
тс!з о |
Га О |
-1,5 -1,0 -0,5 0,0 0,5 1,0 1,5
0|тепзюп 1
Т 1 Г
В) Координаты объектов в осях шкал:
5Ыши1ив СоогсЦпаЬев
5Ь1ти1из |
Б1тепз10п |
||
Б1М. 1 |
Б1М. 2 |
||
1 |
МКА |
1.35 |
0 . 04 |
2 |
БА |
0.44 |
1.10 |
3 |
КА |
-1 .29 |
0 .95 |
4 |
РА |
0 . 72 |
-0.95 |
5 |
МОЗ |
-1 . 22 |
-1 . 13 |
С) График конфигурации стимулов в осях шкал:
1,5 1,0 0,5 0,0
-0,5
см с о
м -1,0 с Ф
Е
Ь -1,5
Величина стресса и К.5<3 свидетельствуют о достаточно точной подгонке конечной конфигурации к исходным данным (расстояния между объектами в итоговом пространстве соответствуют исходным различиям). Следовательно, можно приступать к содержательной интерпретации результатов.
На положительном полюсе первой шкалы располагаются МРА и ФА, на отрицательном — КА и МШ. Промежуточное положение занимает ДА. Таким образом, эта шкала отражает наличие знаний у студента о различии методов по исходным предположениям о структуре данных: ФА, МРА и отчасти ДА исходят из согласованности изменчивости признаков (корреляций), а КА и МШ — из дистантной модели (мер сходства или различия).
На положительном полюсе второй шкалы располагаются ДА и КА — методы классификации, на отрицательном полюсе — ФА и МШ, структурные методы. Следовательно, наличие этой шкалы свидетельствует о сформированное™ у студента адекватных знаний о назначении многомерных методов. Наглядное представление о субъективной структуре знаний студента дает график координат сравниваемых объектов в пространстве двух шкал.
МОДЕЛЬ ИНДИВИДУАЛЬНЫХ РАЗЛИЧИЙ
Этот метод — расширение метода неметрического МШ путем включения в основную модель субъективных параметров. Оценки индивидуальных различий дают, наряду с координатами стимулов, количественное координатное описание субъектов, аналогичное координатному описанию стимулов, получаемому с помощью неметрического МШ. Исходными данными для МШ индивидуальных различий является N матриц оценок различий Р объектов- стимулов, то есть результат оценки попарных различий Р объектов каждым из А'испытуемых.
Индивидуальная матрица различий для каждого испытуемого может быть получена и в результате вычисления матрицы РхР по результатам сравнения испытуемым Робъектов по ряду признаков. Типичный пример последнего — обработка репертуарных решеток Келли, когда исходными данными являются оценки объектов (например, ролей) по совокупности конструктов. Такой вид анализа легко осуществим при помощи компьютерной программы РК.ОХ- 5САЦ входящей в состав 8Р85.
В модели предполагается, что существует общая для всех испытуемых групповая матрица координат объектов — X, размерностью Рх К(Р— число объектов, К — число координат). При этом для каждого испытуемого имеется индивидуальная матрица координат Х! той же размерности, но по содержанию отличающаяся от групповой. Можно представить себе координаты групповой матрицы как совокупность общих (групповых) точек зрения на объекты. Тогда индивидуальная матрица будет отличаться от групповой степенью учета данным испытуемым этих общих точек зрения, иначе — индивидуальным весом общих координат.
Таким образом, предполагается, что элементы каждой субъективной матрицы координат отличаются от элементов групповой матрицы индивидуальными весовыми коэффициентами — мерами того, насколько учитываются
Каждый субъект может быть охарактеризован набором индивидуальных весов...
данным субъектом общие точки зрения. А каждый субъект может быть охарактеризован набором индивидуальных весов — по одному для каждой координаты (точки зрения). Индивидуальные веса иногда называют весами важности, весами характеристик или масштабными коэффициентами. При прочих равных условиях, при увеличении индивидуального веса данной координаты разность между стимулами по этой координате вносит все больший и больший вклад в оцениваемое различие между этими стимулами.
Изложенное выше можно представить в виде формальных соотношений. Обозначим через х1к координату объекта / по шкале к в общем групповом пространстве объектов. Предполагается, что соответствующий элемент субъективной матрицы координат х1к5 для испытуемого 5 связан с элементом групповой матрицы соотношением
хИа ~ Хцс^кз
или в матричных обозначениях:
х3 = хт,
где и^ — вес координаты к для субъекта — матрица субъективных весов для всех А"координат, преобразующая групповую матрицу в индивидуальную.
В соответствии с моделью индивидуальных различий исходные данные о субъективном различии объектов / и / субъектом 5 выражаются формулой
к
К
к = \
(18.2)
На
1а(хНс '
Эта формула выражает основное предположение модели МШ индивидуальных различий и связывает исходные данные о субъективных оценках различий 5 с результатами применения метода: групповой матрицей координат объектов X, размерностью Рх К, и матрицей субъективных (индивидуальных) весов IV, размерностью УУх К. При этом матрица Xаналогична результатам неметрического МШ, а матрица Ж содержит N строк — для каждого субъекта и А"столбцов — для каждой шкалы-координаты.
Модель индивидуальных различий часто отождествляют с компьютерной программой Ш08САЬЕ (индивидуальное шкалирование), предназначенной для нахождения групповой матрицы координат Л'и индивидуальных весов IV по исходным данным о различиях между Р объектами, полученным от N субъектов. Эта программа входит, в частности, в состав ЗР88. Рассмотрим исходные данные и основные результаты применения этой программы.
Как упоминалось, исходными данными для модели индивидуальных различий являются У матриц субъективных оценок различий между Робъектами-сти- мулами. Мерами соответствия результата исходным данным, или мерами качества решения, являются величины стресса, как и в неметрическом МШ. Дополнительно вычисляются квадраты коэффициентов корреляции (ИЗО) между фактическими и оцененными скалярными произведениями. Они показывают степень согласованности расстояний (вычисленных по результирующим координатам стимулов с учетом субъективных весов) с исходными оценками субъективных различий между стимулами. Общий стресс и общий К5<2 — меры соответствия для результирующей групповой матрицы координат стимулов. Они служат, в частности, для оценки числа координат, как и в случае неметрического МШ.
Помимо этого, вычисляются аналогичные меры для каждого субъекта. Величина стресса и К$>0 для субъекта — это меры соответствия групповой матрицы координат исходным данным для этого субъекта. Чем ниже величина стресса и выше К.80, тем выше соответствие индивидуальной точки зрения групповой. Если стресс значительно превышает 0,15 и К50 меньше 0,7, то индивидуальные данные не соответствуют групповым и этого субъекта следует рассматривать отдельно либо выделить в отдельную группу таких же субъектов.
Если величины мер соответствия удовлетворяют исследователя, он может приступить к интерпретации групповой матрицы координат стимулов и матрицы индивидуальных весов. Матрица координат стимулов интерпретируется аналогично результатам неметрического МШ: каждая шкала интерпретируется через стимулы, имеющие по этой оси наибольшие абсолютные значения координат. Визуализация матрицы координат стимулов в пространстве двух или трех измерений-шкал позволяет обнаружить содержательно важные группировки объектов.
Матрица индивидуальных весов показывает то, насколько каждый субъект учитывает или разделяет групповые точки зрения при различении объектов. Чем выше для субъекта вес одной из координат, тем существеннее для него соответствующая групповая точка зрения. Матрица индивидуальных весов задает пространство субъектов, каждая ось которого соответствует оси пространства объектов. Каждый субъект в этом пространстве характеризуется вектором из начала координат в точку с координатами, заданными строкой матрицы. Длина каждого вектора прямо пропорциональна степени соответствия индивидуальных данных групповым и пропорциональна К.80: чем длиннее вектор, тем в большей степени данный субъект учитывает групповые точки зрения. Группировки в пространстве субъектов соответствуют испытуемым со сходными точками зрения.
Отметим, что метод МШ индивидуальных различий предоставляет уникальную возможность сочетания идеографического и нормативного подходов в одном исследовании. Нормативный подход осуществляется путем соотнесения индивидуальных результатов с общими для группы — по индивидуальным субъективным весам общих для группы точек зрения. Одновременно возможно изучение качественного своеобразия каждой индивидуальной точки зрения — по индивидуальной матрице различий.
часть iii. многомерные методы и модели
ПРИМЕР 18.2
В уже упоминавшемся исследовании восприятия студентами учебных предметов1 каждый из 73 студентов оценивал различия между 14 элементами, в качестве которых выступали пройденные учебные курсы. Полученный массив данных (73 матрицы) обрабатывался при помощи МШ индивидуальных различий. Было получено 3-шкальное решение — достаточно устойчивое и воспроизводимое. Оно оказалось общим для большинства из опрошенных студентов. Для интерпретации шкал далее были проведены структурированные интервью (метод выявления конструктов), материалом для которых являлись учебные дисциплины, поляризованные по шкалам. При проведении интервью учитывалось индивидуальное своеобразие точек зрения опрашиваемого (по результатам шкалирования). Удалось выявить общие конструкты — критерии восприятия студентами учебных курсов. Ими оказались:
ПРИМЕР 18.3
Изучалась структурированность представлений студентов о разных психологических концепциях. Для этого двум студентам предлагалось сравнить попарно по степени различия концепции пяти ученых: В. Вундта, Э. Титченера, И. М. Сеченова, Э. Торндайка и М. Вертгеймера. В процедуре исследования каждому студенту было предложено оценивать различие концепций в каждой паре из всех возможных сочетаний (всего 5(5 — 1)/2 = 10 пар) по 5-балльной шкале (1 — очень похожи, 5 — совсем не похожи). Результаты оценки различий представлены в табл. 18.5.
Та б л и ц а 18.5
Результаты попарного сравнения пяти концепций двумя студентами
Концепции |
Обозначения |
Студент 1 |
Студент 2 |
||||||||
В. Вундт |
Э. Титченер |
И. М. Сеченов |
Э. Торндайк |
М. Вертгеймер |
В. Вундт |
Э. Титченер |
И. М. Сеченов |
Э. Торндайк |
М. Вертгеймер |
||
В. Вундт |
vi |
0 |
0 |
||||||||
Э. Титченер |
у2 |
1 |
0 |
2 |
0 |
||||||
И. М. Сеченов |
уЗ |
5 |
5 |
0 |
2 |
3 |
0 |
||||
Э. Торндайк |
у4 |
5 |
4 |
2 |
0 |
3 |
3 |
3 |
0 |
||
М. Вертгеймер |
у5 |
4 |
3 |
4 |
3 |
0 |
4 |
4 |
5 |
3 |
0 |
1 Лященко С., Наследов А. Исследование предпочтений студентами учебных предметов // Психология, акмеология, педагогика — образовательной практике: к 150-лстию кафедры педагогики (педагогики и педагогической психологии) и 35-летию ф-та психологии СПбГУ. СПб., 2001.
Обработка на компьютере
Для обработки воспользуемся данными примера 18.3. Исходные данные (1)а1а Ейког) представляют собой нижние треугольники матриц попарных различий между 5 объектами (табл. 18.4). Для реализации программы ШБ8САЬ необходимо, чтобы матрицы для разных субъектов находились друг под другом. В нашем примере вторая матрица расположена под первой.
Примечание. Если данные представляют собой оценки объектов по ряду признаков каждым из экспертов (испытуемых), а не матрицы различий, то вместо программы АЬ8САЬ лучше воспользоваться программой РЯОХ8САЬ.
Следующим параметром является количество шкал. Обычно следует получить результаты для нескольких шкал и выбрать наилучшее из них — по величинам стресса и по отчетливости интерпретации. В данном случае у нас всего 5 объектов, поэтому вряд ли потребуется более двух шкал. Задаем 01теп810п8 (Шкалы) > Мттшт: 2 (Минимум), Махтшт: 2 (Максимум). Параметры Ьеуе1 оГ теавигетеп! (Уровень измерения) можно не менять и оставить принятые по умолчанию Огйша1 (Порядковый): их изменение практически не меняет результаты. Разве что можно поставить флажок ШНе Ней оЬзегуайоп (Корректировать связанные наблюдения) — для устранения влияния связей (повторов) в рангах.
Убеждаемся, что установлено СопйШопаШу: Ма1пх (Условие подгонки: вся матрица).
После задания всех параметров модели нажимаем СопНпие.
После задания всех параметров обработки и вывода результатов нажимаем Сопипие.
Нажимаем ОК и получаем результаты.
5. Основные результаты МШ индивидуальных различий.
ГЬегаЫоп 3-з(;гезз 1шргсл/етеп1;
(Итерация) (5-стресс) (Улучшение)
ТЬегаЫопз зЬоррей Ьесаизе 8-зЬгезз 13 1езз ЬЬап .005000 (Итерации остановлены, поскольку 5-стресс меньше, чем 0,005.)
Величина стресса и для всех матриц:
МаЬг1х |
ЗЬгезз |
К3<2 |
1 |
.000 |
1.000 |
2 |
.001 |
1 .000 |
АVе^адед (гтз) с^ег таЬг1сез ЗСгезз = .00070 КЗО = 1.00000
Эти величины свидетельствуют об отличной общей подгонке результатов, в том числе — для каждой матрицы отдельно. Следовательно, можно приступать к интерпретации результатов.
С) Координаты стимулов и субъективные веса для каждой матрицы:
П1тепз1оп |
|||
(Шкалы) |
|||
ЗЫши1из |
ЗЫши1из |
1 |
2 |
ЫитЬег |
Ыате |
||
vi |
В. Вундт |
0,6701 |
-1,1265 |
\2 |
Э. Титченер |
0,2192 |
-1,1002 |
уз |
И. Сеченов |
1,1847 |
1,1476 |
у4 |
Э. Торндайк |
-0,3482 |
1,0969 |
у5 |
М. Вертгеймер |
-1,7257 |
-0,0179 |
ЗиЬзесЬ ЫитЬег |
ЗиЬз есЬ |
Ие1дЬЬз |
|
(Номера субъектов) |
(Индивидуальные веса) |
||
1 |
0,2798 |
0,9601 |
|
2 |
0,9768 |
0,2142 |
О) График конфигурации стимулов в осях шкал:
о*4 |
0уЗ |
О |
О О |
0,5
см с
О)
Е О
-0,5
-1,0
~I I г
-2-1 0 1
Р|теп5юп 1
1,0
Е) Конфигурация субъективных весов в осях шкал:
1,0 -
0,8-
см с
Е О
0,4-
0,2 0,4 0,6 0,8 1,0
Р|теп5юп 1
□епуеа ЗиЬ)ес! оте1дп1з
0,2-
При МШ индивидуальных различий интерпретируются две группы результатов: а) общее для группы испытуемых координатное представление сравниваемых объектов (общие точки зрения); б) субъективные (индивидуальные) веса общих точек зрения для каждого субъекта. На отрицательном полюсе первой шкалы расположена концепция М. Вертгеймера, затем, по мере возрастания значений шкалы: Э. Торндайк, Э. Титченер, В. Вундт, И. Сеченов. Очевидно, что эта шкала отражает временные представления студентов о последовательности появления концепций: чем меньше значения по этой шкале, тем позже появилась концепция. Вторая шкала отражает, скорее, содержательные представления студентов о концепциях: на положительном ее полюсе располагаются концепции, выражающие объективный подход к анализу поведения (И. М. Сеченов, Э. Торндайк); на отрицательном полюсе — интроспективный подход к анализу сознания (В. Вундт, Э. Титченер).
Индивидуальные веса шкал показывают различия испытуемых по тому, насколько каждый из них разделяет общие (групповые) точки зрения. Для студента 1 преимущественное значение имеет содержательная характеристика концепций (шкала 2) и в меньшей степени — последовательность их появления (шкала 1). Студент 2 учитывает в большей степени последовательность появления концепций и почти полностью игнорирует их содержательное своеобразие.
МОДЕЛЬ
СУБЪЕКТИВНЫХ ПРЕДПОЧТЕНИЙ
Исходными данными для шкалирования предпочтений является матрица размерностью РхЫ, содержащая N строк — по одной для каждого субъекта, присваивающего номера Робъектам по степени предпочтения: от 1 — самому предпочитаемому до Р — наименее предпочтительному.
В соответствии с моделью предпочтений каждый субъект характеризуется идеальным объектом, а степень предпочтения стимула определяется его отличием от идеала. Дистанционная модель предпочтений основана на предположении, что субъекты могут быть охарактеризованы координатами идеальных точек в едином пространстве. Это пространство задается шкалами, которые трактуются как критерии, по которым осуществляются предпочтения. Координата х5к — то значение признака к, которое считает идеальным субъект 5. Все значения АГпризнаков определяют набор характеристик идеального объекта. Соответственно, номер или ранг предпочтения определяется как степень отличия данного объекта от идеала — 8Й. Чем больше ранг предпочтения, тем меньше нравится объект, то есть тем дальше он от идеала.
к
к = I
Формально неметрическая дистанционная модель предпочтений предполагает выполнение следующих соотношений:
. < Зд => 4 < <1]5 для всех (/,/) субъекта ^ (18.3)
Первое соотношение обозначает, что для каждого субъекта есть своя монотонная функция /5, что избавляет от необходимости приписывать субъектам единую шкалу для субъективных предпочтений. Второе соотношение ограничивает координаты объектов х1к и идеальных точек х5кв искомом пространстве так, чтобы сохранить порядковую информацию о соотношении объектов для каждого субъекта. Такой анализ называется условным по строке (строки соответствуют субъектам), в отличие от безусловного ограничения (по строкам и столбцам), применяемого в неметрическом шкалировании данных об индивидуальных различиях.
Программа неметрического шкалирования АЬ8САЬ, включенная в состав 8Р55, может выполнять и неметрический анализ предпочтений, если задать прямоугольную матрицу (гес1ап§и1аг) с количеством строк (го\у), соответствующим количеству субъектов, но не менее 4. Дополнительно необходимо задать «условность по строке» (Сопс1Шопа1: Яо\у) в соответствии с требованием выражения 18.3.
Критерии качества координатного представления объектов и правила выбора числа координат при анализе предпочтений те же, что в модели неметрического МШ данных о различиях. Однако матрица координат объектов включает в себя и координаты идеальных точек для каждого субъекта. Иными словами, конечный результат анализа предпочтений — это групповое пространство признаков (шкал), в котором наряду с объектами предпочтения размещены идеальные точки субъектов. Интерпретация этих результатов аналогична интерпретации результатов анализа различий.
ПРИМЕР 18.4
В упоминавшемся исследовании отношений студентов к учебным предметам (Лященко С., Наследов А., 2001) изучались и их предпочтения. В одной из серий исследования студентам предлагалось упорядочить 14 предметов по степени предпочтения стиля их преподавания. Исходные данные для 73 студентов обрабатывались при помощи многомерного шкалирования предпочтений. Результаты 3-шкального решения использовались для составления структурированных интервью. Таким образом были выделены основные критерии предпочтений учебных курсов с точки зрения стиля их преподавания. Ими оказались: 1 — «академичный — эмоциональный» стиль изложения материала; 2 — «диалогичный — монологичный» характер контакта с аудиторией; 3 — «доступная — сложная» манера изложения материала.
ПРИМЕР 18.5
Исследовались критерии предпочтения студентами различных психологических концепций. Каждому из четырех студентов было предложено ранжировать по степени предпочтения 6 концепций: 3. Фрейда, М. Вертгеймера, А. Адлера, Р. Кеттел- ла, Г. Айзенка и К. Левина (табл. 18.6), присваивая 1 наиболее и 6 наименее предпочитаемой концепции.
Таблица 18.6
Ранги предпочтения студентами шести психологических концепций
Концепции |
||||||
Студенты |
3. Фрейд |
М. Вертгеймер |
А. Адлер |
Р. Кеттелл |
Г. Айзенк |
К. Левин |
vi |
у2 |
уЗ |
у4 |
у5 |
уб |
|
1 |
6 |
1 |
5 |
3 |
4 |
2 |
2 |
2 |
6 |
1 |
4 |
3 |
5 |
3 |
3 |
6 |
4 |
2 |
1 |
5 |
4 |
2 |
6 |
3 |
5 |
4 |
1 |
Обработка на компьютере
Для обработки воспользуемся данными примера 18.5. Исходные данные (Ба(а ЕсШог) содержатся в таблице, строки которой соответствуют субъектам, а столбцы — объектам предпочтений (в соответствии с таблицей 18.6).
Следующим параметром является количество шкал. Обычно следует получить результаты для нескольких шкал и выбрать наилучшее из них — по величинам стресса и по отчетливости интерпретации. В данном случае у нас всего 6 объектов, поэтому вряд ли потребуется более двух шкал. Задаем 0>теп$юп$ (Шкалы) МЫтит: 2, Махшит: 2. После задания всех параметров модели нажимаем СопШше.
После задания всех параметров обработки и вывода результатов нажимаем Соп1тие. Нажимаем ОК и получаем результаты.
А) «История» итераций, величины стресса и К§0:
1ЬегаЫоп ЫзЬогу Еог Ыте 2 Й1тепз10па1 зо1и(:1оп
(История итераций для 2-шкального решения.)
Уоипд'з З-зЬгезз Еогти1а 2 13 изе (Применена формула 2 8-стресса Юнга.)
ХЬегаЫоп (Итерация) |
З-зЬгезз (з-стресс) |
Шргсл/етеп!; (Улучшение) |
1 |
0.02095 |
|
2 |
0.02065 |
0.0003 |
ХЬегаЬз-ОПз зЬоррей Ьесаизе 5-зЬгезз 1тргс^етеп1; 1з 1езз ЬЬап .001000 (Итерации остановлены, поскольку улучшение 8-стресса меньше, чем 0,001.)
В) Величины стресса и К§0 для каждой строки отдельно:
ЗЬгезз Vа1иез аге Кгизка1'з зЬгезз Еогти1а 2. (Величина стресса вычислена по формуле 2 Краскала.)
МаЬггх |
ЗЬгезз |
КЗО |
1 |
0.000 |
1.000 |
2 |
0.006 |
1.000 |
3 |
0.035 |
0.999 |
4 |
0.046 |
0.998 |
Величина стресса и К$0 для всех матриц:
Рог та1;г1х
(Для всей матрицы) ЗЫезз = .029 КЗО = .999.
История итераций показывает, что минимальная величина достигнута на втором шаге, что, на самом деле, встречается очень редко. Обычно при большем количестве объектов проблемой является слишком большая величина стресса. Окончательная величина стресса (по формуле 2 Краскала) и величина К$0 свидетельствуют о высоком соответствии исходным данным всего решения. Величины для каждой строки отдельно показывают высокое соответствие исходным данным и результатов для каждого эксперта.
С) Координаты объектов (Со1ишп) и идеальных точек (Яо\у) в осях шкал:
ЗС1ти1из ЫитЬег |
ЗЫти1из Ыате |
1 |
2 |
Со 1 шпп |
|||
vi |
3. Фрейд |
1.237 |
0.478 |
\2 |
М. Вертгеймер |
-1.9721 |
-0 .2875 |
уЗ |
А. Адлер |
0.8707 |
0.4139 |
у4 |
Р. Кеттелл |
-0.2983 |
-1.2141 |
У5 |
Г. Айзенк |
0.3989 |
-0.9137 |
У6 |
К. Левин |
-0.7627 |
1.2788 |
Ком |
|||
1 |
-1.7744 |
0 . 0344 |
|
2 |
1.1952 |
-0.1109 |
|
3 |
0.7594 |
-1.1098 |
|
4 |
0.3464 |
1.4308 |
Э) График конфигурации объектов и идеальных точек в осях шкал:
Оепуес! ЗЫти1из СопйдигаЫоп
Уб о го» 1 п |
о го» 4 |
оЛ МЛ о |
°го»2 у5 ° го»3 о |
1 1 г
-2-1 0 1 2 01тепзюп 1
Результаты анализа позволяют достаточно определенно интерпретировать основания предпочтений по координатам объектов. Шкала 1 интерпретируется как дихотомия побуждений (3. Фрейд, А. Адлер) и познания (М. Вертгеймер). Шкала 2 противопоставляет концепции, рассматривающие личностные свойства (Р. Кеттелл, Г. Айзенк) и ситуативные условия (К. Левин) в качестве основных причин поведения.
1,5 1,0
см 0,5
с
о
'ё 0,0
ш
Е
О -0,5 -1,0 -1,5
Координаты идеальных точек позволяют идентифицировать индивидуальные субъективные предпочтения. Так, эксперт 1 предпочитает когнитивные концепции, а эксперт 2 — психоанализ.
Глава 19
КЛАСТЕРНЫЙ АНАЛИЗ
НАЗНАЧЕНИЕ
Кластерный анализ решает задачу построения классификации, то есть разделения исходного множества объектов на группы (классы, кластеры). При этом предполагается, что у исследователя нет исходных допущений ни о составе классов, ни об их отличии друг от друга. Приступая к кластерному анализу, исследователь располагает лишь информацией о характеристиках (признаках) для объектов, позволяющей судить о сходстве (различии) объектов, либо только данными об их попарном сходстве (различии). В литературе часто встречаются синонимы кластерного анализа: автоматическая классификация, таксономический анализ, анализ образов (без обучения).
Несмотря на то, что кластерный анализ известен относительно давно (впервые изложен Тгуоп в 1939 году), распространение эта группа методов получила существенно позже, чем другие многомерные методы, такие, как факторный анализ. Лишь после публикации книги «Начала численной таксономии» биологами Р. Сокэл и П. Снит в 1963 году начинают появляться первые исследования с использованием этого метода. Тем не менее, до сих пор в психологии известны лишь единичные случаи удачного применения кластерного анализа, несмотря на его исключительную простоту. Вызывает удивление настойчивость, с которой психологи используют для решения простой задачи классификации (объектов, признаков) такой сложный метод, как факторный анализ. Вместе с тем, как будет показано в этой главе, кластерный анализ не только гораздо проще и нагляднее решает эту задачу, но и имеет несомненное преимущество: результат его применения не связан с потерей даже части исходной информации о различиях объектов или корреляции признаков.
Варианты кластерного анализа — это множество простых вычислительных процедур, используемых для классификации объектов. Классификация объектов — это группирование их в классы так, чтобы объекты в каждом классе были более похожи друг на друга, чем на объекты из других классов. Более точно, кластерный анализ — это процедура упорядочивания объектов в сравнительно однородные классы на основе попарного сравнения этих объектов по предварительно определенным и измеренным критериям.
Существует множество вариантов кластерного анализа, но наиболее широко используются методы, объединенные общим названием иерархический кластерный анализ (ШегагсМсаI С1из1ег Апа1ут). В дальнейшем под кластерным анализом мы будем подразумевать именно эту группу методов. Рассмотрим основной принцип иерархического кластерного анализа на примере.
ПРИМЕР 19.1
Предположим, 10 студентам предложили оценить проведенное с ними занятие по двум критериям: увлекательность (РгеГ) и полезность (11$е). Для оценки использовалась 10-балльная шкала. Полученные данные (2 переменные для 10 студентов) графически представлены в виде графика двумерного рассеивания (рис. 19.1). Конечно, классификация объектов по результатам измерения всего двух переменных не требует применения кластерного анализа: группировки и так можно выделить путем визуального анализа. Так, в данном случае наблюдаются четыре группировки: 9, 2, 3 — занятие полезное, но не увлекательное; 1, 10, 8 — занятие увлекательное, но бесполезное; 5,1 — занятие и полезное и увлекательное; 4, 6 — занятие умеренно увлекательное и умеренно полезное. Даже для трех переменных можно обойтись и без кластерного анализа, так как компьютерные программы позволяют строить трехмерные графики. Но для 4 и более переменных визуальный анализданных практически невозможен. Тем не менее, общий принцип классификации объектов при помощи кластерного анализа не зависит от количества измеренных признаков, так как непосредственной информацией для этого метода являются различия между классифицируемыми объектами.
9,00 8,00 7,00 6,00
2> О.
5,00 4,00 3,00 2,00
Рис. 19.1. График двумерного рассеивания переменных «увлекательность» (Рге!) и «польза» (У$е) для 10 студентов
2,00 3,00
5,00 6,00 иве
Кластерный анализ объектов, для которых заданы значения количественных признаков начинается с расчета различий для всех пар объектов. Пользователь может выбрать по своему усмотрению меру различия, обзор которых приведен в соответствующем разделе главы 18. В качестве меры различия выбирается расстояние между объектами в Р-мерном пространстве признаков, чаще всего — евклидово расстояние или его квадрат. В данном случае Р= 2 и евклидово расстояние между объектами <иу определяется формулой:
где х — это значения одного, а у — другого признака.
На первом шаге кластерного анализа путем перебора всех пар объектов определяется пара (или пары) наиболее близких объектов, которые объединяются в первичные кластеры. Далее на каждом шаге к каждому первичному кластеру присоединяется объект (кластер), который к нему ближе. Этот процесс повторяется до тех пор, пока все объекты не будут объединены в один кластер. Критерий объединения объектов (кластеров) может быть разным и определяется методом кластерного анализа. Основным результатом применения иерархического кластерного анализа является дендрограмлш — графическое изображение последовательности объединения объектов в кластеры. Для данного примера дендрограмма приведена на рис. 19.2.
Рис. 19.2. Дендрограмма для 10 студентов (метод средней связи)
На дендрограмме номера объектов следуют по вертикали. По горизонтали отмечены расстояния (в условных единицах), на которых происходит объединение объектов в кластеры. На первых шагах происходит образование кластеров: (3,9,2) и (5,7). Далее образуется кластер (8, 10, 1) — расстояния между этими объектами больше, чем между теми, которые были объединены на предыдущих шагах. Следующий кластер — (4, 6). Далее в один кластер объединяются кластеры (5, 7) и (4, 6), и т. д. Процесс заканчивается объединением всех объектов в один кластер. Количество кластеров определяет по дендрограмме сам исследователь. Так, судя по дендрограмме, в данном случае можно выделить три или четыре кластера.
Как видно из примера, кластерный анализ — это комбинаторная процедура, имеющая простой и наглядный результат. Широта возможного применения кластерного анализа очевидна настолько же, насколько очевиден и его смысл. Классифицирование или разделение исходного множества объектов на различающиеся группы — всегда первый шаг в любой умственной деятельности, предваряющий поиск причин обнаруженных различий.
Можно указать ряд задач, при решении которых кластерный анализ является более эффективным, чем другие многомерные методы:
П классификация объектов на основе непосредственных оценок различий между ними (например, исследование социальной структуры коллектива по данным социометрии — по выявленным межличностным предпочтениям).
Несмотря на различие целей проведения кластерного анализа, можно выделить общую его последовательность как ряд относительно самостоятельных шагов, играющих существенную роль в прийтадном исследовании:
Последний этап не всегда необходим, например, при выявлении социальной структуры группы. Тем не менее следует помнить, что кластерный анализ
всегда разобьет совокупность объектов на классы, независимо от того, существуют ли они на самом деле. Поэтому бесполезно доказывать существенность разбиения на классы, например, на основании достоверности различий между классами по признакам, включенным в анализ. Обычно проверяют устойчивость группировки — на повторной идентичной выборке объектов. Значимость разбиения проверяют по внешним критериям — признакам, не вошедшим в анализ.
МЕТОДЫ КЛАСТЕРНОГО АНАЛИЗА
Непосредственными данными для применения любого метода кластеризации является матрица различий между всеми парами объектов. Определение или задание меры различия является первым и необходимым шагом кластерного анализа. Поэтому прежде, чем продолжить чтение, убедитесь, что вы уже знакомы с основными мерами различий, с требованиями к ним и со способами их получения (глава 18, раздел «Меры различия»).
Из всего множества методов кластеризации наиболее распространены так называемые иерархические агломеративные методы. Название указывает на то, что классификация осуществляется путем последовательного объединения (агломерации) объектов в группы, оказывающиеся в результате иерархически организованными. Эти методы — очень простые комбинаторные процедуры, отличающиеся критерием объединения объектов в кластеры.
Критерий объединения многократно применяется ко всей матрице попарных расстояний между объектами. На первых шагах объединяются наиболее близкие объекты, находящиеся на одном уровне сходства. Затем поочередно присоединяются остальные объекты, пока все они не объединятся в один большой кластер. Результат работы метода представляется графически в виде дендрограммы — ветвистого древовидного графика.
Существуют различные методы иерархического кластерного анализа, в частности, в программе 8Р88 предлагается 7 методов. Каждый метод дает свои результаты кластеризации, но три из них являются наиболее типичными. Поэтому рассмотрим результаты применения этих методов к одним и тем же данным из примера 19.1.
..пока все они не объединятся в один большой кластер
БепсЗгодгат изл.пд Зл.пд1е Ыпкаде
Кевса1е<3 ВхзЬапсе С1изСег СотЫпе
С А 3 Е 0 5 10 15 20 25
ЬаЬе1 Ыит Н 1 I 1 1 1-
9
2 —I
' з !
8
10
1
6
Рис. 19.3. Дендрограмма для 10 студентов (метод одиночной связи)
Метод одиночной связи (5т§1е Ыпка§е) — наиболее понятный метод, который часто называют методом «ближайшего соседа» {Ыеагев! ~Ые'1фЪог). Алгоритм начинается с поиска двух наиболее близких объектов, пара которых образует первичный кластер. Каждый последующий объект присоединяется к тому кластеру, к одному из объектов которого он ближе.
На рис. 19.3 приведен результат применения метода. Сопоставляя эту ден- дрограмму с рис. 19.1, можно заметить, что объект 4 присоединяется к кластеру (8, 10, 1) и на том же расстоянии — к объекту 6 в связи с тем, что расстояние от объекта 4 до объекта 6 такое же, что и до объекта 1. Из рисунка видно, что метод имеет тенденцию к образованию длинных кластеров «цепочного» вида. Таким образом, метод имеет тенденцию образовывать небольшое число крупных кластеров. К особенностям метода можно отнести и то, что результаты его применения часто не дают возможности определить, как много кластеров находится в данных.
Метод полной связи (Сошр1е1е 1лпка§е) часто называют методом «дальнего соседа» (Риг(Нез( Ые1фЪог). Правило объединения этого метода подразумевает, что новый объект присоединяется к тому кластеру, самый далекий элемент которого находится ближе к новому объекту, чем самые далекие элементы других кластеров. Это правило является противоположным предыдущему и более жестким. Поэтому здесь наблюдается тенденция к выделению большего числа компактных кластеров, состоящих из наиболее похожих элементов.
Сравним результат применения метода полной связи (рис. 19.4), метода одиночной связи (рис. 19.3) и фактическую конфигурацию объектов (рис. 19.2). Различия в работе методов проявляются прежде всего в отношении объектов 4 и 6. Метод полной связи объединяет их в отдельный кластер и соединяет с кластером (5, 7) раньше, чем с кластером (8, 10, 1) — в отличие от метода одиночной связи. Объект 4 присоединяется сначала к объекту 6, пото-
Бепйгодгат изхпд Сотр1еСе Ыпкаде
25 Н
Кезса1е<3 01в1:апсе С1ивСег СошЫпе
С А 3 Е о 5 10 15 20 ЬаЬе! Шв Н 1 \ * 1—-
10 1
Т
иг
т
Рис.19.4. Дендрограмма для 10 студентов (метод полной связи)
му что этот последний к нему ближе, чем самый дальний объект кластера (8, 10, 1). На этом же основании кластер (4, 6) присоединяется к кластеру (5, 7), потому что самый дальний объект 6 кластера (4, 6) ближе к самому дальнему объекту 7 кластера (5, 7), чем к самому дальнему объекту 8 кластера (8, 10, 1).
Метод средней связи (Луега$е Ыпкаде) или межгрупповой связи (ВеРмееп Сгоирз Ыпка§е) занимает промежуточное положение относительно крайностей методов одиночной и полной связи. На каждом шаге вычисляется среднее арифметическое расстояние между каждым объектом из одного кластера и каждым объектом из другого кластера. Объект присоединяется к данному кластеру, если это среднее расстояние меньше, чем среднее расстояние до любого другого кластера. По своему принципу этот метод должен давать более точные результаты классификации, чем остальные методы. То, что объединение кластеров в методе средней связи происходит при расстоянии большем, чем в методе одиночной связи, но меньшем, чем в методе полной связи, и объясняет промежуточное положение этого метода. Результат применения метода изображен на рис. 19.2. Поскольку объектов в нашем примере немного, результаты применения методов полной и средней связи различаются незначительно.
В реальных исследованиях обычно имеются десятки классифицируемых объектов, и применение каждого из указанных методов дает существенно разные результаты для одних и тех же данных. Опыт и литературные данные свидетельствуют, что наиболее близкий к реальной группировке результат позволяет получить метод средней связи. Но это не означает бесполезность применения двух других методов. Метод одиночной связи «сжимает» пространство, образуя минимально возможное число больших кластеров. Метод полной связи «расширяет» пространство, образуя максимально возможное число компактных кластеров. Каждый из трех методов привносит в реальное
соотношение объектов свою структуру и представляет собой как бы свою точку зрения на реальность. Исследователь, в зависимости от стоящей перед ним задачи, вправе выбрать тот метод, который ему больше подходит.
Численность классов является отдельной проблемой в кластерном анализе. Сложность заключается в том, что не существует формальных критериев, позволяющих определить оптимальное число классов. В конечном итоге это определяется самим исследователем исходя из содержательных соображений. Однако для предварительного определения числа классов исследователь может обратиться к таблице последовательности агломерации (А§§1отегаПоп зсНейик). Эта таблица позволяет проследить динамику увеличения различий по шагам кластеризации и определить шаг, на котором отмечается резкое возрастание различий. Оптимальному числу классов соответствует разность между числом объектов и порядкового номера шага, на котором обнаружен перепад различий. Более подробно порядок оценки численности классов рассмотрен на примере компьютерной обработки.
Обработка на компьютере: кластерный анализ объектов
Воспользуемся для обработки на компьютере данными примера 19.1. Исходные данные (Ба1а ЕсШог) представляют собой два столбца (переменные 11зе и Рге!) и 10 строк.
6. Основные результаты кластерного анализа.
А) Таблица последовательности агломерации:
Адд1ошегаЫоп ЗсЬе«Зи1е
Зьаде |
С1из1:ег |
СошЫпей |
Сое:С ^хсхепЬз |
ЗЬаде С1изЬег Рхгзь Арреагз |
ЫехЬ Зьаде |
|
С1из1;ег 1 |
С1изЬег 2 |
С1изЬег 1 |
С1изЬег 2 |
|||
1 |
3 |
9 |
1.000 |
0 |
0 |
3 |
2 |
5 |
7 |
1.000 |
0 |
0 |
7 |
3 |
2 |
3 |
1.207 |
0 |
1 |
9 |
4 |
8 |
10 |
1.414 |
0 |
0 |
5 |
5 |
1 |
8 |
1.707 |
0 |
4 |
8 |
6 |
4 |
6 |
2.236 |
0 |
0 |
7 |
7 |
4 |
5 |
3.711 |
6 |
2 |
8 |
8 |
1 |
4 |
4.484 |
5 |
7 |
9 |
9 |
1 |
2 |
6.726 |
8 |
3 |
0 |
В) Дендрограмма:
Оепйгодгаш изхпд Ауегаде Ыпкаде (ВеСиееп Сгоир)
Кезса1есЗ Б1зСапсе с1иасег СотЫпе
С А Б Е 0 5 10 15 20 25 ЬаЬе! Ыит Н 1 1 ^ 1 Н
3 — 9 — 2 —
; з
4 —■ 6 —
Помимо дендрограммы, очень важна информация, содержащаяся в таблице последовательности агломерации. В этой таблице вторая колонка Оизгег СотЫпес! (Объединенные кластеры) содержит первый (С1из1:ег 1) и второй (С1ийег 2) столбцы, которые соответствуют номерам кластеров, объединяемых на данном шаге. После объединения кластеру присваивается номер, соответствующий номеру в колонке С1и§1ег 1. Так, на первом шаге объединяются объекты 3 и 9, кластеру присваивается номер 3, далее этот кластер на шаге 3 объединяется с элементом 2, новому кластеру присваивается номер 2 и т. д. Следующая колонка СоеШс1еп1з (Коэффициент) содержит значение расстояния между кластерами, которые объединяются на данном шаге. Колонка $1а§е С1из1ег Риз! Арреагз (Предыдущий шаг, на котором появлялся кластер) показывает, на каком шаге до этого появлялся первый и второй из объединяемых кластеров. Последняя колонка Кехг 51а§е (Следующий шаг) показывает, на каком шаге снова появится кластер, образованный на этом шаге.
Попытаемся оценить оптимальное число классов по таблице последовательности агломерации. Видно, что первый резкий скачок расстояния между кластерами наблюдается при переходе от 6 к 7 шагу. Следовательно, наиболее оптимальное количество кластеров — то, которое получено на 6 или 7 шаге. Это количество равно численности объектов минус номер шага, то есть 10 — 6 (7) = 4 (3) — 4 или 3 кластера. Выбор того или иного решения будет зависеть уже от содержательных соображений. Так, в данном случае, если обратиться к рис. 19.1, то целесообразно выделять 4 кластера, то есть отделять кластеры (4, 6) — умеренные оценки и (5, 7) — высокие оценки увлекательности и полезности занятия.
КЛАСТЕРНЫЙ И ФАКТОРНЫЙ АНАЛИЗ
Как отмечалось ранее, кластерный анализ можно применять в ходе корреляционного анализа — для исследования взаимосвязей множества переменных, как существенно более простой и наглядный аналог факторного анализа. В этом смысле представляет интерес соотнесение факторного и кластерного анализа.
Факторный анализ (глава 16), как известно, позволяет выделить факторы, которые интерпретируются как латентные причины взаимосвязи групп переменных. При этом каждый фактор идентифицируется (интерпретируется) через группу переменных, которые теснее связаны друг с другом, чем с другими переменными. Напомним, что кластерный анализ тоже направлен на выявление групп, в состав которых входят объекты, более сходные друг с другом, чем с представителями других групп. При этом, конечно же, кластерный анализ имеет совершенно иную природу, нежели факторный анализ. Но если в качестве объектов классификации определить переменные, а в качестве мер их различия (близости) — корреляции, то кластерный анализ позволит получить тот же результат, что и факторный анализ. Имеется в виду доступная интерпретации структура взаимосвязей множества переменных.
Важно отметить два существенных ограничения факторного анализа. Во- первых, факторный анализ неизбежно сопровождается потерей исходной информации о связях между переменными. И эта потеря часто весьма ощутима: от 30 до 50%. Во-вторых, из требования «простой структуры» следует, что ценность представляет решение, когда группы переменных, которые соответствуют разным факторам, не должны заметно коррелировать друг с другом. И чем теснее эти группы связаны, тем хуже факторная структура, тем труднее факторы поддаются интерпретации. Не говоря уже о случаях иерархической соподчиненности групп.
Кластерный анализ корреляций лишен указанных недостатков. Во-первых, классификация при помощи кластерного анализа по определению отражает всю исходную информацию о различиях (связях в данном случае). Во- вторых, он не только допускает, но и отражает степень связанности разных кластеров, включая случаи соподчиненности (иерархичности) кластеров.
Таким образом, кластерный анализ является не только более простой и наглядной альтернативой факторного анализа. В указанных отношениях он имеет явные преимущества, которые целесообразно использовать, по крайней мере, до попытки применения факторного анализа. Как начальный этап исследования корреляций, кластерный анализ позволит избавиться от несгруппирован- ных переменных и выявить иерархические кластеры, к которым факторный анализ не чувствителен. Вполне вероятно, что после кластерного анализа отпадет и сама необходимость в проведении факторного анализа. Исключение составляют случаи применения факторного анализа по его прямому назначению — для перехода к факторам как к новым интегральным переменным.
Применяя кластерный анализ для исследования структуры корреляций, необходимо помнить о двух обстоятельствах. Во-первых, корреляция является мерой сходства, а не различия — ее величина возрастает (до 1) при увеличении сходства двух переменных. Во-вторых, отрицательные величины корреляции так же свидетельствуют о сходстве переменных, как и положительные, то есть для классификации необходимо использовать только положительные корреляции (их абсолютные значения).
ПРИМЕР 19.2
В конце главы 16 был рассмотрен пример применения факторного анализа в психосемантическом исследовании. Напомним, что в результате многоэтапной обработки была получена 3-факторная структура для 10 переменных — шкал семантического дифференциала (табл. 19.1). В качестве исходных данных выступали 10 переменных, измеренных для 86 объектов. Для сравнения применим кластерный анализ в отношении тех же данных для классификации 10 переменных, используя в качестве меры различия абсолютное значение коэффициента корреляции Пирсона.
Табл и ца 19.1
Факторная структура 10 шкал СД
Переменные |
Факторные нагрузки (после вращения) |
|||
№ |
Название |
1 |
2 |
3 |
vi |
Разговорчивый — Молчаливый |
0,09 |
-0,09 |
-0,82 |
у2 |
Безответственный — Добросовестный |
0,02 |
0,58 |
0,04 |
Окончание табл. 19.1
Переменные |
Факторные нагрузки (после вращения) |
|||
уЗ |
Замкнутый — Открытый |
0,23 |
0,20 |
0,76 |
у4 |
Зависимый — Независимый |
0,70 |
0,21 |
-0,03 |
у5 |
Деятельный — Пассивный |
0,03 |
-0,63 |
-0,39 |
у6 |
Вялый — Энергичный |
0,20 |
0,65 |
0,45 |
у7 |
Расслабленный — Напряженный |
-0,94 |
-0,07 |
-0,11 |
у8 |
Суетливый — Спокойный |
0,81 |
-0,11 |
0,01 |
у9 |
Несамостоятельный — Самостоятельный |
0,28 |
0,80 |
0,01 |
уЮ |
Раздражительный — Невозмутимый |
0,66 |
0,32 |
0,13 |
Обработка на компьютере: кластерный анализ корреляций
В качестве исходных данных (Ба*а Е(И1ог) воспользуемся теми же данными, на основании которых были получены результаты факторного анализа (табл. 19.1), то есть 10 признаков для 86 объектов.
6. Основные результаты кластерного анализа. А) Таблица последовательности агломерации: Адд1отегаЫоп 8сЬейи1е
БЬаде |
С1изЪег СотЫпесЗ |
СоеЕЯсхепЪз |
8Ьаде С1изЬег ПгзЪ Арреагз |
ЫехЬ 8Ьаде |
||
С1изЪег 1 |
С1изЪег 2 |
С1из(:ег 1 |
С1изЪег 2 |
|||
1 |
7 |
8 |
.758 |
0 |
0 |
2 |
2 |
4 |
7 |
. 620 |
0 |
1 |
5 |
3 |
1 |
3 |
.607 |
0 |
0 |
8 |
4 |
6 |
9 |
. 594 |
0 |
0 |
6 |
5 |
4 |
10 |
. 557 |
2 |
0 |
9 |
6 |
5 |
6 |
. 524 |
0 |
4 |
7 |
7 |
2 |
5 |
.422 |
0 |
6 |
8 |
8 |
1 |
2 |
.280 |
3 |
7 |
9 |
9 |
1 |
4 |
.186 |
8 |
5 |
0 |
В) Дендрограмма:
Оепйгодгат изхпд АVе^аде Ыпкаде (ВеЬиееп Сгоирз)
Кезса1ей ОгзЬапсе С1изЪег СотЫпе
С А 3 Е 0 5 10 15 20 25 ЬаЬе! Nиш Н 1 1 1 I Н
у4 4
VII) 10
vi 1
V3 3
уб 6
V9 9
V5 5
V2 2
По таблице последовательности агломерации резкое уменьшение величины корреляции между кластерами наблюдается после шага 7, на котором объединяются кластеры 2 и 5 (переменная 2 присоединяется к кластеру 6, 9, 5). Следовательно, оптимальное число кластеров равно 3. Этот результат подтверждает дендрограмма. Состав кластеров точно соответствует факторной структуре (табл. 19.1). В дополнение к результатам факторного анализа можно добавить, что группы переменных, которые соответствуют факторам 2 и 3, заметно коррелируют друг с другом (г = 0,280, р < 0,05), то есть фактор «добросовестность» положительно связан с фактором «экстраверсия».
Таким образом, если бы задача исследования была ограничена обнаружением и интерпретацией групп переменных, то кластерный анализ позволил бы ее решить быстрее, проще и в некотором смысле полнее.
КЛАСТЕРНЫЙ АНАЛИЗ РЕЗУЛЬТАТОВ СОЦИОМЕТРИИ
Социометрия — широко применяемый метод для изучения социальной структуры группы по результатам положительных и отрицательных выборов ее членами друг друга. Как правило, каждому представителю группы предлагается по указанному экспериментатором критерию выбрать несколько наиболее (положительный выбор) и наименее (отрицательный выбор) подходящих представителей данной группы. Число выборов задается исследователем в зависимости от размера группы, обычно — от 2 до 5. Результаты выборов фиксируются в таблице, социоматрице, строки которой соответствуют тем, кто выбирает, а столбцы — кого выбирают. Наиболее сложная и трудоемкая задача социометрии — выделение группировок в исходной группе, решение которой при «ручной» обработке находится на грани возможностей, если численность группы — несколько десятков человек.
Кластерный анализ социометрической матрицы не только прост в исполнении, но и позволяет выделить разные «точки зрения» на социальную структуру группы.
В табл. 19.2 приведены результаты социометрии в группе из 12 человек. Плюсы — положительные выборы, минусы — отрицательные, пропуски — отсутствие выборов.
Таблица 19.2
Симметричная матрица для 12 испытуемых
N |
1 |
2 |
3 |
4 |
5 |
6 |
1 |
8 |
9 |
10 |
11 |
12 |
1 |
0 |
+ |
+ |
+ |
- |
- |
+ |
+ |
||||
2 |
+ |
0 |
- |
+ |
||||||||
3 |
+ |
0 |
+ |
+ |
||||||||
4 |
0 |
+ |
+ |
+ |
- |
- |
||||||
5 |
- |
0 |
+ |
- |
+ |
- |
||||||
6 |
- |
+ |
0 |
+ |
- |
- |
||||||
7 |
- |
+ |
0 |
+ |
- |
+ |
||||||
8 |
- |
+ |
0 |
+ |
+ |
|||||||
9 |
- |
+ |
- |
0 |
+ |
+ |
||||||
10 |
+ |
+ |
- |
- |
- |
+ |
0 |
+ |
||||
11 |
- |
+ |
+ |
0 |
- |
|||||||
12 |
- |
- |
- |
+ |
+ |
+ |
0 |
Первая проблема — задание метрики взаимоотношений. В социометрии субъект далеко не всегда выбирает того, кто выбрал его, следовательно, социо- матрица не симметрична относительно главной диагонали, и ее элементы не являются мерами различия. В то же время исходной для кластерного анализа должна быть матрица, симметричная относительно главной диагонали, каждый элемент которой отражает попарные различия (расстояния) между субъектами. Следовательно, необходимо оцифровать исходную социоматрицу так, чтобы ее можно было представить в симметричном виде. При этом величина различий должна быть мерой симпатии-антипатии между членами группы: чем выше симпатия, тем меньше эта величина, а чем выше антипатия, те больше величина различий.
В соответствии с тремя типами одностороннего отношения («да» — положительный выбор, «нет» - отрицательный выбор, «пусто» — отсутствие выбора) можно определить шесть возможных типов взаимоотношений, каждому из которых необходимо присвоить свое числовое значение, отражающее социальную дистанцию. Минимальной дистанции («да—да» — положительный взаимный выбор) должно соответствовать минимальное число, максимальной («нет—нет» — отрицательный взаимный выбор) — максимальное число. Исходя из этого принципа, можно подобрать числа для исходных выборов. Положительному выбору («да») присвоим значение 1, нейтральному отношению («пусто») — 2, отрицательному выбору («нет») — 4. Другой вариант, соответственно, 1—3—4. Вариант 1—2—3 недопустим, так как будут неразличимы варианты отношений «да—нет» и «пусто—пусто». Итак, на данном этапе мы заменяем варианты выборов: «+» на 1, «пусто» на 2, «-» на 4. Диагональные элементы оставляем нулями (расстояния между идентичными элементами).
Следующий шаг — приведение исходной матрицы к симметричному виду — производится путем сложения строк и столбцов с одинаковыми номерами (иначе говоря, исходная матрица складывается с самой собой транспонированной). Полученная симметричная матрица (табл. 19.3) отражает все попарные взаимоотношения между членами группы: «да—да» — 2, «да—пусто» — 3, «пусто—пусто» — 4, «да—нет» — 5, «пусто—нет» — 6, «нет—нет» — 8.
Та б л и ц а 19.3
Симметричная социометрическая матрица (после оцифровки данных табл. 19.2)
N |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
1 |
0 |
2 |
2 |
3 |
8 |
8 |
6 |
4 |
5 |
3 |
5 |
6 |
2 |
2 |
0 |
4 |
4 |
4 |
4 |
4 |
4 |
4 |
5 |
2 |
4 |
3 |
2 |
4 |
0 |
3 |
4 |
4 |
4 |
4 |
4 |
3 |
4 |
4 |
4 |
3 |
4 |
3 |
0 |
4 |
4 |
3 |
3 |
2 |
6 |
6 |
4 |
5 |
8 |
4 |
4 |
4 |
0 |
2 |
6 |
3 |
6 |
6 |
4 |
8 |
6 |
8 |
4 |
4 |
4 |
2 |
0 |
2 |
8 |
4 |
6 |
4 |
8 |
7 |
6 |
4 |
4 |
3 |
6 |
2 |
0 |
2 |
6 |
4 |
4 |
2 |
8 |
4 |
4 |
4 |
3 |
3 |
8 |
2 |
0 |
4 |
6 |
3 |
2 |
9 |
5 |
4 |
4 |
2 |
6 |
4 |
6 |
4 |
0 |
2 |
3 |
4 |
10 |
3 |
5 |
3 |
6 |
6 |
6 |
4 |
6 |
2 |
0 |
2 |
4 |
11 |
5 |
2 |
4 |
6 |
4 |
4 |
4 |
3 |
3 |
2 |
0 |
5 |
12 |
6 |
4 |
4 |
4 |
8 |
8 |
2 |
2 |
4 |
4 |
5 |
0 |
В отношении полученной симметричной матрицы необходимо сделать два замечания. Во-первых, на этом этапе мы теряем часть исходной информации — о направлении выбора. Например, расстояние между субъектами 1 и 4 равно 3. Это свидетельствует об одностороннем положительном выборе в паре, однако симметричная социоматрица не дает возможности узнать, кто в паре выбирает, а кто остается нейтральным. Во-вторых, принятая в данном случае оцифровка (1—3—4) приводит к тому, что расстояние в паре с амбивалентными отношениями («да—нет» = 5) становится меньше, чем взаимно нейтральные отношения («пусто—пусто» = 6). При оцифровке 1—2—4 соотношение было бы обратным. В зависимости от того, какие отношения исследователь считает более близкими — амбивалентные или односторонне отрицательные, выбирается и вариант оцифровки.
Рассмотрим теперь результаты применения к этой матрице метода одиночной связи (рис. 19.5). На уровне взаимного положительного выбора (расстояние равно 2) образовано два кластера. Отношение между кластерами — на уровне одностороннего положительного выбора.
Каждый субъект присоединяется к одному из двух кластеров на основании наличия взаимного положительного выбора между ним и одним из членов этого кластера. При этом не учитываются его отношения с другими членами этого кластера, в том числе и взаимно отрицательные. Например, субъект 12 присоединен ко второму кластеру на основании взаимного положительного выбора с субъектом 7 или 8, несмотря на то что его отношения с остальными членами этого кластера (5 и 6) находятся на уровне взаимного неприятия. Иначе говоря, при использовании этого метода в расчет принимаются только наиболее близкие отношения. Новый кандидат на включение присоединяется к той группировке (кластеру), один из членов которой находится в самых близких с ним отношениях по сравнению с членами других группиро-
Тгее 01адгат Тог УапаЫез
51пд1е Упкаде 0|551т|1апИез Тгот та1пх
1
2 I I I I
3
10
д 1 1 1 1
1,8 2,0 2,2 2,4 2,6 2,8 3,0
□пкаде 01з1апсе
Рис. 19.5. Метод одиночной связи в применении к данным социометрии
Тгее 01адгат Тог УапаЫез
Сотр1е1е ипкаде 0|551тПап11ез 1 гот та1пх
2 :
9 | ; ^; | I
12
ю : ; |
11 | ; | :
123456789 и'пкаде 01з1апсе
Рис. 19.6. Метод полной связи в применении к данным социометрии
вок. Отношения между двумя выделенными группировками трактуются так же: это наилучшие взаимоотношения между одним из членов одной группировки и одним из членов другой, в данном случае они соответствуют расстоянию 3 — одностороннему положительному выбору.
Метод полной связи демонстрирует другой подход к анализу той же матрицы (рис. 19.6). На первом шаге, на уровне взаимного положительного выбора, образуется 6 кластеров: четыре пары, одна тройка и один тривиальный кластер, состоящий из одного члена. Далее, при установлении отношений (расстояния) между новым кандидатом на включение в кластер и этим кластером, из всех расстояний между ним и членами этого кластера выбирается наибольшее. Поэтому на втором шаге к группировке 1—2 присоединяется субъект 3 на уровне взаимно нейтральных отношений. На следующем шаге к группировке 1-2—3 присоединяется группировка 4—9. Отношения между ними определяются как амбивалентные (расстояние 5), в соответствии с тем, что это наихудшие отношения между членами этих группировок. Эти отношения, однако, лучше, чем были бы при объединении любой из этих двух группировок с одной из остальных. Точно так же происходит дальнейшее объединение кластеров — на основании наихудших отношений в объединяемых группировках, которые, однако, должны быть лучше, чем сложились бы при объединении с другими группировками. Последние две группировки объединяются на уровне взаимно отрицательных отношений. Это означает, что такие отношения не встречаются отдельно в каждой из группировок, но существуют между некоторыми членами одной группировки и некоторыми — другой, то есть появляются при их объединении.
Таким образом, результаты применения разных методов кластеризации соответствуют разным точкам зрения на одну и ту же структуру взаимоотношений. С точки зрения члена группы, результаты применения метода одиночной связи соответствуют принципу «друг моего друга — свой, хоть и враг мне». Результаты применения метода полной связи больше соответствуют другой точке зрения: «друг моего врага — чужой, хоть и друг мне». При этом «друг» и «враг» отличаются расстоянием, а «свой» и «чужой» — принадлежностью к группировке (кластеру). Иначе говоря, в отношении одной и той же социальной структуры метод одиночной связи соответствует точке зрения оптимиста, а метод полной связи — пессимиста.
Обработка на компьютере: кластерный анализ различий
Укажем последовательность шагов для обработки данных социометрии. Симметричную матрицу различий (табл. 19.3) можно получить при помощи программы Ехсе1. Для этого сначала необходимо набрать социометрическую матрицу (табл. 19.2). Затем при помощи операции «заменить» оцифровать всю матрицу, заменяя символы и пустые клетки соответствующими цифрами. После этого при помощи копирования и специальной вставки (отметить «транспонировать») поместить рядом с исходной оцифрованной матрицей ее транспонированную копию. Симметричная матрица различий получается как третья матрица путем поэлементного сложения исходной оцифрованной матрицы с ее транспонированной копией.
При обработке матрицы различий при помощи статистических программ (8РЗЗ или 8ТАТ18Т1СА) возникает неожиданная проблема. Дело в том, что ни в той, ни в другой программе не предусмотрен непосредственный ввод матриц различий для обработки при помощи кластерного анализа (в 8Р88 модули многомерного шкалирования позволяют обрабатывать подобного рода данные, а модули кластерного анализа — нет). Требуется ввод таких матриц в особом матричном формате (в 8Р88 — еще и с использованием специальной коррекции программ обработки). В связи с тем, что это ограничение легче «обойти» в программе 8ТАТ18Т1СА, приведем последовательность обработки симметричной матрицы различий в среде именно этой программы.
КЛАСТЕРНЫЙ АНАЛИЗ И МНОГОМЕРНОЕ ШКАЛИРОВАНИЕ
Многомерное шкалирование (глава 18) и кластерный анализ — это методы, основанные на дистантной модели: непосредственными исходными данными для них является информация о различии объектов. Поэтому представляет интерес сравнение результатов применения этих методов в отношении одних и тех же данных.
Напомним, что многомерное шкалирование, как и факторный анализ, направлено на выявление небольшого числа шкал. Эти шкалы трактуются как критерии, лежащие в основе различий объектов, и интерпретируются через объекты, поляризованные по этим шкалам. Особое значение при интерпретации шкал, в отличие от факторов, уделяется визуализации координатных представлений объектов в пространстве шкал, что связано с невозможностью поворота шкал относительно объектов (как факторов относительно признаков в факторном анализе). Поэтому особую ценность при шкалировании имеют двух-, максимум — трехшкальные решения. Так же, как и в факторном анализе, при многомерном шкалировании получение решения с малым числом шкал неизбежно влечет потерю исходной информации о различии объектов.
ПРИМЕР 19.3
Сравним результаты многомерного шкалирования и кластерного анализа одной и той же матрицы различий (табл. 19.3), полученной путем оцифровки исходной социометрической матрицы (табл. 19.2).
Предположим, исследователь решил применить многомерное шкалирование для того, чтобы по его результатам разместить 12 членов группы в аудитории в соответствии с их симпатиями и антипатиями. Графическое изображение 2-шкального решения приведено на рис. 19.7. Для сравнения на рис. 19.8 изображена дендрограмма — результат кластерного анализа методом средней связи для тех же данных.
Зса«егр1о120 Рта1 СопЯдигаИоп, сЯтепзюп 1 уз. сИтепзюп 2
-1,0 -0,8 -0,6 -0,4 -0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4
0|тепзюп 1
Рис. 19.7. Результат многомерного шкалирования данных социометрии (2-шкальное решение)
Тгее 0'1адгат 1ог УапаЫез 11п\те1дМес1 ра1г-дгоир ауегаде 01зз1тИапйез Ггот та1пх
5,5 5,0
а)
о 4,5
4,0 3,5 3,0 2,5 2,0
ш а>
5
1,5
12 8
11 10
Рис.19.8. Дендрограмма для данных социометрии (метод средней связи)
Двумерная конфигурация объектов оказывается весьма грубым отражением реальных группировок. Так, группы (1, 2, 3) и (10, 11) на плоском изображении практически не разделены, а члены пары (9,4) оказались в разных областях пространства. Несколько лучше оказывается 3-шкальное решение (рис. 19.9), хотя и оно весьма отдаленно напоминает группировки, выделяемые при помощи кластерного анализа.
5са«егр1о130 Ппа1 СопКдигайоп 0|'теп510п 1 УБ. □|теп5юп 2 УБ. 01тепз10п 3
Рис. 19.9. Результат многомерного шкалирования данных социометрии (3-шкальное решение)
По-видимому, наблюдаемые искажения являются следствием того, что симпатии и антипатий в данной группе вряд ли могут быть объяснены небольшим числом общих оснований. Такое единодушие проявляется разве что в отношении очень небольшого числа членов этой группы (5 и 6).
Таким образом, наиболее серьезным ограничением многомерного шкалирования является, по-видимому, предположение о том, что в основе всех различий между объектами лежит небольшое число критериев (шкал). Если есть серьезные сомнения на этот счет, то применение многомерного шкалирования вряд ли оправданно. И тогда целесообразнее применять кластерный анализ.
Приложения
ОСНОВНЫЕ
СТАТИСТИЧЕСКИЕ
ТАБЛИЦЫ
СТАНДАРТНЫЕ НОРМАЛЬНЫЕ ВЕРОЯТНОСТИ
0,09
В таблице указаны значения площади под кривой единичного нормального распределения, находящиеся справа от 2. В крайнем левом столбце даны различные 2-значения с точностью до одного десятичного знака. Значения вероятностей указаны для различных значений 2, включая второй знак после запятой (указан в верхнем ряду).
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08
0,4761 0,4364 0,3974 0,3594 0,3228 0,2877 0,2546 0,2236 0,1949 0,1685 0,1446 0,1230 0,1038 0,0869 0,0721 0,0594 0,0485 0,0392 0,0314 0,0250 0,0197 0,0154 0,0119 0,0091 0,0069
0,4681 0,4286 0,3897 0,3520 0,3156 0,2810 0,2483 0,2177 0,1894 0,1635 0,1401 0,1190 0,1003 0,0838 0,0694 0,0571 0,0465 0,0375 0,0301 0,0239 0,0188 0,0146 0,0113 0,0087 0,0066
0,4641 0,4247 0,3859 0,3483 0,3121 0,2776 0,2451 0,2148 0,1867 0,1611 0,1379 0,1170 0,0985 0,0823 0,0681 0,0559 0,0455 0,0367 0,0294 0,0233 0,0183 0,0143 0,0110 0,0084 0,0064
0,4960 0,4562 0,4168 0,3783 0,3409 0,3050 0,2709 0,2389 0,2090 0,1814 0,1562 0,1335 0,1131 0,0951 0,0793 0,0655 0,0537 0,0436 0,0351 0,0281 0,0222 0,0174 0,0136 0,0104 0,0080
0,4880 0,4483 0,4090 0,3707 0,3336 0,2981 0,2643 0,2327 0,2033 0,1762 0,1515 0,1292 0,1093 0,0918 0,0764 0,0630 0,0516 0,0418 0,0336 0,0268 0,0212 0,0166 0,0129 0,0099 0,0075
0,4840 0,4404 0,4052 0,3669 0,3300 0,2946 0,2611 0,2296 0,2005 0,1736 0,1492 0,1271 0,1075 0,0901 0,0749 0,0618 0,0505 0,0409 0,0329 0,0262 0,0207 0,0162 0,0125 0,0096 0,0073
0,4801 0,4404 0,4013 0,3632 0,3264 0,2912 0,2578 0,2266 0,1977 0,1711 0,1469 0,1251 0,1056 0,0885 0,0735 0,0606 0,0495 0,0401 0,0322 0,0256 0,0202 0,0158 0,0122 0,0094 0,0071
0,4920 0,4522 0,4129 0,3745 0,3372 0,3015 0,2676 0,2358 0,2061 0,1788 0,1539 0,1314 0,1112 0,0934 0,0778 0,0643 0,0526 0,0427 0,0344 0,0274 0,0217 0,0170 0,0132 0,0102 0,0078
0,4721 0,4325 0,3936 0,3557 0,3192 0,2843 0,2514 0,2206 0,1922 0,1660 0,1423 0,1210 0,1020 0,0853 0,0708 0,0582 0,0475 0,0384 0,0307 0,0244 0,0192 0,0150 0,0116 0,0089 0,0068
0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2
0,5000 0,4602 0,4207 0,3821 0,3446 0,3085 0,2743 0,2420 0,2119 0,1841 0,1587 0,1357 0,1151 0,0968 0,0808 0,0668 0,0548 0,0446 0,0359 0,0287 0,0228 0,0179 0,0139 0,0107 0,0082
2 |
0,00 |
0,01 |
0,02 |
0,03 |
0,04 |
0,05 |
0,06 |
0,07 |
0,08 |
0,09 |
2,5 |
0,0062 |
0,0060 |
0,0059 |
0,0057 |
0,0055 |
0,0054 |
0,0052 |
0,0051 |
0,0049 |
0,0048 |
2,6 |
0,0047 |
0,0045 |
0,0044 |
0,0043 |
0,0041 |
0,0040 |
0,0039 |
0,0038 |
0,0037 |
0,0036 |
2,7 |
0,0035 |
0,0034 |
0,0033 |
0,0032 |
0,0031 |
0,0030 |
0,0029 |
0,0028 |
0,0027 |
0,0026 |
2,8 |
0,0026 |
0,0025 |
0,0024 |
0,0023 |
0,0023 |
0,0022 |
0,0021 |
0,0021 |
0,0020 |
0,0019 |
2,9 |
0,0019 |
0,0018 |
0,0018 |
0,0017 |
0,0016 |
0,0016 |
0,0015 |
0,0015 |
0,0014 |
0,0014 |
3,0 |
0,0013 |
0,0013 |
0,0013 |
0,0012 |
0,0012 |
0,0011 |
0,0011 |
0,0011 |
0,0010 |
0,0010 |
3,1 |
0,0010 |
0,0009 |
0,0009 |
0,0009 |
0,0008 |
0,0008 |
0,0008 |
0,0008 |
0,0007 |
0,0007 |
3,2 |
0,0007 |
|||||||||
3,3 |
0,0005 |
|||||||||
3,4 |
0,0003 |
|||||||||
3,5 |
0,00023 |
|||||||||
3,6 |
0,00016 |
|||||||||
3,7 |
0,00011 |
|||||||||
3,8 |
0,00007 |
|||||||||
3,9 |
0,00005 |
|||||||||
4,0 |
0,00003 |
Значения рассчитаны при помощи программы Ехсе1.
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЯ Г-СТЬЮДЕНТА (для проверки ненаправленных альтернатив — двусторонний критерий)
с!/ |
Р |
с/ |
Р |
||||||
0,10 |
0,05 |
0,01 |
0,001 |
0,10 |
0,05 |
0,01 |
0,001 |
||
1 |
6,314 |
12,70 |
63,65 |
636,61 |
46 |
1,679 |
2,013 |
2,687 |
3,515 |
2 |
2,920 |
4,303 |
9,925 |
31,602 |
47 |
1,678 |
2,012 |
2,685 |
3,510 |
3 |
2,353 |
3,182 |
5,841 |
12,923 |
48 |
1,677 |
2,011 |
2,682 |
3,505 |
4 |
2,132 |
2,776 |
4,604 |
8,610 |
49 |
1,677 |
2,010 |
2,680 |
3,500 |
5 |
2,015 |
2,571 |
4,032 |
6,869 |
50 |
1,676 |
2,009 |
2,678 |
3,496 |
6 |
1,943 |
2,447 |
3,707 |
5,959 |
51 |
1,675 |
2,008 |
2,676 |
3,492 |
7 |
1,895 |
2,365 |
3,499 |
5,408 |
52 |
1,675 |
2,007 |
2,674 |
3,488 |
8 |
1,860 |
2,306 |
3,355 |
5,041 |
53 |
1,674 |
2,006 |
2,672 |
3,484 |
9 |
1,833 |
2,262 |
3,250 |
4,781 |
54 |
1,674 |
2,005 |
2,670 |
3,480 |
10 |
1,812 |
2,228 |
3,169 |
4,587 |
55 |
1,673 |
2,004 |
2,668 |
3,476 |
11 |
1,796 |
2,201 |
3,106 |
4,437 |
56 |
1,673 |
2,003 |
2,667 |
3,473 |
12 |
1,782 |
2,179 |
3,055 |
4,318 |
57 |
1,672 |
2,002 |
2,665 |
3,470 |
13 |
1,771 |
2,160 |
3,012 |
4,221 |
58 |
1,672 |
2,002 |
2,663 |
3,466 |
14 |
1,761 |
2,145 |
2,977 |
4,140 |
59 |
1,671 |
2,001 |
2,662 |
3,463 |
15 |
1,753 |
2,131 |
2,947 |
4,073 |
60 |
1,671 |
2,000 |
2,660 |
3,460 |
16 |
1,746 |
2,120 |
2,921 |
4,015 |
61 |
1,670 |
2,000 |
2,659 |
3,457 |
17 |
1,740 |
2,110 |
2,898 |
3,965 |
62 |
1,670 |
1,999 |
2,657 |
3,454 |
18 |
1,734 |
2,101 |
2,878 |
3,922 |
63 |
1,669 |
1,998 |
2,656 |
3,452 |
19 |
1,729 |
2,093 |
2,861 |
3,883 |
64 |
1,669 |
1,998 |
2,655 |
3,449 |
20 |
1,725 |
2,086 |
2,845 |
3,850 |
65 |
1,669 |
1,997 |
2,654 |
3,447 |
21 |
1,721 |
2,080 |
2,831 |
3,819 |
66 |
1,668 |
1,997 |
2,652 |
3,444 |
22 |
1,717 |
2,074 |
2,819 |
3,792 |
67 |
1,668 |
1,996 |
2,651 |
3,442 |
23 |
1,714 |
2,069 |
2,807 |
3,768 |
68 |
1,668 |
1,995 |
2,650 |
3,439 |
24 |
1,711 |
2,064 |
2,797 |
3,745 |
69 |
1,667 |
1,995 |
2,649 |
3,437 |
25 |
1,708 |
2,060 |
2,787 |
3,725 |
70 |
1,667 |
1,994 |
2,648 |
3,435 |
26 |
1,706 |
2,056 |
2,779 |
3,707 |
71 |
1,667 |
1,994 |
2,647 |
3,433 |
27 |
1,703 |
2,052 |
2,771 |
3,690 |
72 |
1,666 |
1,993 |
2,646 |
3,431 |
28 |
1,701 |
2,049 |
2,763 |
3,674 |
73 |
1,666 |
1,993 |
2,645 |
3,429 |
4Г |
Р |
Р |
|||||||
0,10 |
0,05 |
0,01 |
0,001 |
0,10 |
0,05 |
0,01 |
0,001 |
||
29 |
1,699 |
2,045 |
2,756 |
3,659 |
74 |
1,666 |
1,993 |
2,644 |
3,427 |
30 |
1,697 |
2,042 |
2,750 |
3,646 |
75 |
1,665 |
1,992 |
2,643 |
3,425 |
31 |
1,696 |
2,040 |
2,744 |
3,633 |
76 |
1,665 |
1,992 |
2,642 |
3,423 |
32 |
1,694 |
2,037 |
2,738 |
3,622 |
78 |
1,665 |
1,991 |
2,640 |
3,420 |
33 |
1,692 |
2,035 |
2,733 |
3,611 |
79 |
1,664 |
1,990 |
2,639 |
3,418 |
34 |
1,691 |
2,032 |
2,728 |
3,601 |
80 |
1,664 |
1,990 |
2,639 |
3,416 |
35 |
1,690 |
2,030 |
2,724 |
3,591 |
90 |
1,662 |
1,987 |
2,632 |
3,402 |
36 |
1,688 |
2,028 |
2,719 |
3,582 |
100 |
1,660 |
1,984 |
2,626 |
3,390 |
37 |
1,687 |
2,026 |
2,715 |
3,574 |
110 |
1,659 |
1,982 |
2,621 |
3,381 |
38 |
1,686 |
2,024 |
2,712 |
3,566 |
120 |
1,658 |
1,980 |
2,617 |
3,373 |
39 |
1,685 |
2,023 |
2,708 |
3,558 |
130 |
1,657 |
1,978 |
2,614 |
3,367 |
40 |
1,684 |
2,021 |
2,704 |
3,551 |
140 |
1,656 |
1,977 |
2,611 |
3,361 |
41 |
1,683 |
2,020 |
2,701 |
3,544 |
150 |
1,655 |
1,976 |
2,609 |
3,357 |
42 |
1,682 |
2,018 |
2,698 |
3,538 |
200 |
1,653 |
1,972 |
2,601 |
3,340 |
43 |
1,681 |
2,017 |
2,695 |
3,532 |
250 |
1,651 |
1,969 |
2,596 |
3,330 |
44 |
1,680 |
2,015 |
2,692 |
3,526 |
300 |
1,650 |
1,968 |
2,592 |
3,323 |
45 |
1,679 |
2,014 |
2,690 |
3,520 |
350 |
1,649 |
1,967 |
2,590 |
3,319 |
Значения рассчитаны при помощи программы Ехсе1.
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЯ /-ФИШЕРА, ДЛЯ ПРОВЕРКИ НАПРАВЛЕННЫХ АЛЬТЕРНАТИВ
/>=0,05
Степени свободы для числителя
10
1
12 24
9,013 5,050 3,972 3,326 3,204 3,106 3,025 2,958 2,901 2,852 2,773 2,711 2,534 2,449 2,400 2,346 2,305 2,259 2,216
8,941 4,950 3,866 3,217 3,095 2,996 2,915 2,848 2,790 2,741 2,661 2,599 2,421 2,336 2,286 2,231 2,191 2,144 2,100
8,887 4,876 3,787 3,135 3,012 2,913 2,832 2,764 2,707 2,657 2,577 2,514 2,334 2,249 2,199 2,143 2,103 2,056 2,011
8,785 4,735 3,637 2,978 2,854 2,753 2,671 2,602 2,544 2,494 2,412 2,348 2,165 2,077 2,026 1,969 1,927 1,878 1,833
8,638 4,527 3,410 2,737 2,609 2,505 2,420 2,349 2,288 2,235 2,150 2,082 1,887 1,793 1,737 1,674 1,627 1,572 1,519
3 5 7 10 11 12
10,128 6,608 5,591 4,965 4,844 4,747 4,667 4,600 4,543 4,494 4,414 4,351 4,171 4,085 4,034 3,978 3,936 3,888 3,843
9,552 5,786 4,737 4,103 3,982 3,885 3,806 3,739 3,682 3,634 3,555 3,493 3,316 3,232 3,183 3,128 3,087 3,041 2,998
9,277 5,409 4,347 3,708 3,587 3,490 3,411 3,344 3,287 3,239 3,160 3,098 2,922 2,839 2,790 2,736 2,696 2,650 2,607
9,117 5,192 4,120 3,478 3,357 3,259 3,179 3,112 3,056 3,007 2,928 2,866 2,690 2,606 2,557 2,503 2,463 2,417 2,374
8,845 4,818 3,726 3,072 2,948 2,849 2,767 2,699 2,641 2,591 2,510 2,447 2,266 2,180 2,130 2,074 2,032 1,985 1,940
8,745 4,678 3,575 2,913 2,788 2,687 2,604 2,534 2,475 2,425 2,342 2,278 2,092 2,003 1,952 1,893 1,850 1,801 1,754
8,527 4,366 3,231 2,539 2,406 2,297 2,208 2,132 2,067 2,011 1,918 1,844 1,624 1,511 1,440 1,355 1,286 1,192
л ч о ю о в о
X
н
о
Р= 0,01
Степени свободы для числителя |
|||||||||||||
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
10 |
12 |
24 |
? |
||
3 |
34,116 |
30,816 |
29,457 |
28,710 |
28,237 |
27,911 |
27,671 |
27,489 |
27,228 |
27,052 |
26,597 |
26,126 |
|
5 |
16,258 |
13,274 |
12,060 |
11,392 |
10,967 |
10,672 |
10,456 |
10,289 |
10,051 |
9,888 |
9,466 |
9,022 |
|
7 |
12,246 |
9,547 |
8,451 |
7,847 |
7,460 |
7,191 |
6,993 |
6,840 |
6,620 |
6,469 |
6,074 |
5,651 |
|
10 |
10,044 |
7,559 |
6,552 |
5,994 |
5,636 |
5,386 |
5,200 |
5,057 |
4,849 |
4,706 |
4,327 |
3,910 |
|
« |
11 |
9,646 |
7,206 |
6,217 |
5,668 |
5,316 |
5,069 |
4,886 |
4,744 |
4,539 |
4,397 |
4,021 |
3,604 |
12 |
9,330 |
6,927 |
5,953 |
5,412 |
5,064 |
4,821 |
4,640 |
4,499 |
4,296 |
4,155 |
3,780 |
3,362 |
|
X о 5- « Ж |
13 |
9,074 |
6,701 |
5,739 |
5,205 |
4,862 |
4,620 |
4,441 |
4,302 |
4,100 |
3,960 |
3,587 |
3,166 |
14 |
8,862 |
6,515 |
5,564 |
5,035 |
4,695 |
4,456 |
4,278 |
4,140 |
3,939 |
3,800 |
3,427 |
3,005 |
|
« 5 |
15 |
8,683 |
6,359 |
5,417 |
4,893 |
4,556 |
4,318 |
4,142 |
4,004 |
3,805 |
3,666 |
3,294 |
2,870 |
ч 3 |
16 |
8,531 |
6,226 |
5,292 |
4,773 |
4,437 |
4,202 |
4,026 |
3,890 |
3,691 |
3,553 |
3,181 |
2,754 |
§ ю |
18 |
8,285 |
6,013 |
5,092 |
4,579 |
4,248 |
4,015 |
3,841 |
3,705 |
3,508 |
3,371 |
2,999 |
2,567 |
о а о |
20 |
8,096 |
5,849 |
4,938 |
4,431 |
4,103 |
3,871 |
3,699 |
3,564 |
3,368 |
3,231 |
2,859 |
2,422 |
в; X о |
30 |
7,562 |
5,390 |
4,510 |
4,018 |
3,699 |
3,473 |
3,305 |
3,173 |
2,979 |
2,843 |
2,469 |
2,008 |
С о н |
40 |
7,314 |
5,178 |
4,313 |
3,828 |
3,514 |
3,291 |
3,124 |
2,993 |
2,801 |
2,665 |
2,288 |
1,806 |
и |
50 |
7,171 |
5,057 |
4,199 |
3,720 |
3,408 |
3,186 |
3,020 |
2,890 |
2,698 |
2,563 |
2,183 |
1,685 |
70 |
7,011 |
4,922 |
4,074 |
3,600 |
3,291 |
3,071 |
2,906 |
2,777 |
2,585 |
2,450 |
2,067 |
1,542 |
|
100 |
6,895 |
4,824 |
3,984 |
3,513 |
3,206 |
2,988 |
2,823 |
2,694 |
2,503 |
2,368 |
1,983 |
1,429 |
|
200 |
6,763 |
4,713 |
3,881 |
3,414 |
3,110 |
2,893 |
2,730 |
2,601 |
2,411 |
2,275 |
1,886 |
1,281 |
|
оо |
6,637 |
4,607 |
3,784 |
3,321 |
3,019 |
2,804 |
2,641 |
2,513 |
2,323 |
2,187 |
1,793 |
Значения рассчитаны при помощи программы Ехсе1.
Приложение 4 КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЯ Г
Р |
Р |
||||||||
0,10 |
0,05 |
0,01 |
0,001 |
0,10 |
0,05 |
0,01 |
0,001 |
||
1 |
2,706 |
3,842 |
6,635 |
10,829 |
46 |
58,641 |
62,841 |
71,221 |
81,431 |
2 |
4,605 |
5,992 |
9,211 |
13,817 |
47 |
59,774 |
64,013 |
72,463 |
82,752 |
3 |
6,251 |
7,815 |
11,346 |
16,269 |
48 |
60,907 |
65,183 |
73,703 |
84,069 |
4 |
7,779 |
9,488 |
13,278 |
18,470 |
49 |
62,038 |
66,351 |
74,940 |
85,384 |
5 |
9,236 |
11,071 |
15,088 |
20,519 |
50 |
63,167 |
67,518 |
76,175 |
86,694 |
6 |
10,645 |
12,593 |
16,814 |
22,462 |
51 |
64,295 |
68,683 |
77,408 |
88,003 |
7 |
12,017 |
14,068 |
18,478 |
24,327 |
52 |
65,422 |
69,846 |
78,638 |
89,308 |
8 |
13,362 |
15,509 |
20,093 |
26,130 |
53 |
66,548 |
71,008 |
79,866 |
90,609 |
9 |
14,684 |
16,921 |
21,669 |
27,883 |
54 |
67,673 |
72,168 |
81,092 |
91,909 |
10 |
15,987 |
18,309 |
23,213 |
29,594 |
55 |
68,796 |
73,326 |
82,316 |
93,205 |
11 |
17,275 |
19,677 |
24,729 |
31,271 |
56 |
69,919 |
74,484 |
83,538 |
94,499 |
12 |
18,549 |
21,028 |
26,221 |
32,917 |
57 |
71,040 |
75,639 |
84,758 |
95,790 |
13 |
19,812 |
22,365 |
27,693 |
34,536 |
58 |
72,160 |
76,794 |
85,976 |
97,078 |
14 |
21,064 |
23,688 |
29,146 |
36,132 |
59 |
73,279 |
77,947 |
87,192 |
98,365 |
15 |
22,307 |
24,999 |
30,583 |
37,706 |
60 |
74,397 |
79,099 |
88,406 |
99,649 |
16 |
23,542 |
26,299 |
32,006 |
39,262 |
61 |
75,514 |
80,232 |
89,591 |
100,887 |
17 |
24,769 |
27,591 |
33,415 |
40,801 |
62 |
76,630 |
81,381 |
90,802 |
102,165 |
18 |
25,989 |
28,873 |
34,812 |
42,323 |
63 |
77,745 |
82,529 |
92,010 |
103,442 |
19 |
27,204 |
30,147 |
36,198 |
43,832 |
64 |
78,860 |
83,675 |
93,217 |
104,717 |
20 |
28,412 |
31,415 |
37,574 |
45,327 |
65 |
79,973 |
84,821 |
94,422 |
105,988 |
21 |
29,615 |
32,675 |
38,940 |
46,810 |
66 |
81,085 |
85,965 |
95,626 |
107,257 |
22 |
30,813 |
33,929 |
40,298 |
48,281 |
67 |
82,197 |
87,108 |
96,828 |
108,525 |
23 |
32,007 |
35,177 |
41,647 |
49,742 |
68 |
83,308 |
88,250 |
98,028 |
109,793 |
24 |
33,196 |
36,420 |
42,989 |
51,194 |
69 |
84,418 |
89,391 |
99,227 |
111,055 |
25 |
34,382 |
37,658 |
44,324 |
52,635 |
70 |
85,527 |
90,531 |
100,425 |
112,317 |
26 |
35,563 |
38,891 |
45,652 |
54,068 |
71 |
86,635 |
91,670 |
101,621 |
113,577 |
27 |
36,741 |
40,119 |
46,973 |
55,493 |
72 |
87,743 |
92,808 |
102,816 |
114,834 |
28 |
37,916 |
41,343 |
48,289 |
56,910 |
73 |
88,850 |
93,945 |
104,010 |
116,092 |
29 |
39,087 |
42,564 |
49,599 |
58,320 |
74 |
89,956 |
95,081 |
105,202 |
117,347 |
30 |
40,256 |
43,780 |
50,904 |
59,722 |
75 |
91,061 |
96,217 |
106,393 |
118,599 |
31 |
41,422 |
44,993 |
52,203 |
61,118 |
76 |
92,166 |
97,351 |
107,582 |
119,850 |
32 |
42,585 |
46,202 |
53,498 |
62,508 |
78 |
94,374 |
99,617 |
109,958 |
122,347 |
4Г |
Р |
с/ |
Р |
||||||
0,10 |
0,05 |
0,01 |
0,001 |
0,10 |
0,05 |
0,01 |
0,001 |
||
33 |
43,745 |
47,408 |
54,789 |
63,891 |
79 |
95,476 |
100,749 |
111,144 |
123,595 |
34 |
44,903 |
48,610 |
56,074 |
65,269 |
80 |
96,578 |
101,879 |
112,329 |
124,839 |
35 |
46,059 |
49,810 |
57,356 |
66,641 |
90 |
107,565 |
113,145 |
124,116 |
137,208 |
36 |
47,212 |
51,007 |
58,634 |
68,008 |
100 |
118,498 |
124,342 |
135,807 |
149,449 |
37 |
48,363 |
52,201 |
59,907 |
69,370 |
110 |
129,385 |
135,480 |
147,414 |
161,582 |
38 |
49,513 |
53,393 |
61,177 |
70,728 |
120 |
140,233 |
146,567 |
158,950 |
173,618 |
39 |
50,660 |
54,582 |
62,444 |
72,080 |
130 |
151,045 |
157,610 |
170,423 |
185,573 |
40 |
51,805 |
55,768 |
63,707 |
73,428 |
140 |
161,827 |
168,613 |
181,841 |
197,450 |
41 |
52,949 |
56,953 |
64,967 |
74,772 |
150 |
172,581 |
179,581 |
193,207 |
209,265 |
42 |
54,090 |
58,135 |
66,224 |
76,111 |
200 |
226,021 |
233,994 |
249,445 |
267,539 |
43 |
55,230 |
59,314 |
67,477 |
77,447 |
250 |
279,050 |
287,882 |
304,939 |
324,831 |
44 |
56,369 |
60,492 |
68,728 |
78,779 |
300 |
331,788 |
341,395 |
359,906 |
381,424 |
45 |
57,505 |
61,668 |
69,976 |
80,107 |
350 |
384,306 |
394,626 |
414,474 |
437,487 |
Значения рассчитаны при помощи программы Ехсе1.
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ ДЛЯ ЧИСЛА СЕРИЙ (для проверки ненаправленных гипотез для а = 0,05)
IV»
0,025
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
16 |
17 |
18 |
19 |
20 |
|
2 |
|||||||||||||||||||
3 |
|||||||||||||||||||
4 |
|||||||||||||||||||
5 |
2 |
2 |
|||||||||||||||||
6 |
2 |
2 |
3 |
3 |
|||||||||||||||
|
2 2 |
2 3 |
3 3 |
3 3 |
|
4 |
|||||||||||||
9 |
2 |
3 |
3 |
4 |
4 |
5 |
5 |
||||||||||||
10 |
2 |
3 |
3 |
4 |
5 |
5 |
5 |
6 |
|||||||||||
11 |
2 |
3 |
4 |
4 |
5 |
5 |
6 |
6 |
7 |
||||||||||
12 |
2 |
2 |
3 |
4 |
4 |
5 |
6 |
6 |
7 |
7 |
7 |
||||||||
13 |
2 |
2 |
3 |
4 |
5 |
5 |
6 |
6 |
7 |
7 |
8 |
8 |
|||||||
14 |
2 |
2 |
3 |
4 |
5 |
5 |
6 |
7 |
7 |
8 |
8 |
9 |
9 |
||||||
15 |
2 |
3 |
3 |
4 |
5 |
6 |
6 |
7 |
7 |
8 |
8 |
9 |
9 |
10 |
|||||
16 |
2 |
3 |
4 |
4 |
5 |
6 |
6 |
7 |
8 |
8 |
9 |
9 |
10 |
10 |
11 |
||||
17 |
2 |
3 |
4 |
4 |
5 |
6 |
7 |
7 |
8 |
9 |
9 |
10 |
10 |
11 |
11 |
11 |
|||
18 |
2 |
3 |
4 |
5 |
5 |
6. |
7 |
8 |
8 |
9 |
9 |
10 |
10 |
11 |
11 |
12 |
12 |
||
19 |
2 |
3 |
4 |
5 |
6 |
6 |
7 |
8 |
8 |
9 |
10 |
10 |
11 |
11 |
12 |
12 |
13 |
13 |
|
20 |
2 |
3 |
4 |
5 |
6 |
6 |
7 |
8 |
9 |
9 |
10 |
10 |
11 |
12 |
12 |
13 |
13 |
13 |
14 |
^0,975
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
16 |
17 |
18 |
19 |
20 |
|
1 |
|||||||||||||||||||
2 |
4 |
||||||||||||||||||
3 |
5 |
6 |
|||||||||||||||||
4 |
5 |
7 |
8 |
||||||||||||||||
|
5 5 |
7 7 |
8 8 |
9 9 |
10 |
||||||||||||||
|
5 5 |
7 7 |
9 9 |
10 10 |
11 11 |
12 12 |
13 |
||||||||||||
9 |
5 |
7 |
9 |
11 |
12 |
13 |
13 |
14 |
|||||||||||
10 |
5 |
7 |
9 |
11 |
12 |
13 |
14 |
15 |
15 |
||||||||||
11 |
5 |
7 |
9 |
11 |
12 |
13 |
14 |
15 |
16 |
16 |
|||||||||
12 |
5 |
7 |
9 |
11 |
12 |
13 |
15 |
15 |
16 |
17 |
18 |
||||||||
13 |
5 |
7 |
9 |
11 |
13 |
14 |
15 |
16 |
17 |
18 |
18 |
19 |
|||||||
14 |
5 |
7 |
9 |
11 |
13 |
14 |
15 |
16 |
17 |
18 |
19 |
19 |
20 |
||||||
15 |
5 |
7 |
9 |
11 |
13 |
14 |
15 |
17 |
17 |
18 |
19 |
20 |
21 |
21 |
|||||
16 |
5 |
7 |
9 |
11 |
13 |
15 |
16 |
17 |
18 |
19 |
20 |
20 |
21 |
22 |
23 |
||||
17 |
5 |
7 |
9 |
11 |
13 |
15 |
16 |
17 |
18 |
19 |
20 |
21 |
22 |
22 |
23 |
24 |
|||
18 |
5 |
7 |
9 |
11 |
13 |
15 |
16 |
17 |
18 |
19 |
20 |
21 |
22 |
23 |
24 |
24 |
25 |
||
19 |
5 |
7 |
9 |
11 |
13 |
15 |
16 |
17 |
19 |
20 |
21 |
22 |
22 |
23 |
24 |
25 |
25 |
26 |
|
20 |
5 |
7 |
9 |
11 |
13 |
15 |
16 |
17 |
19 |
20 |
21 |
22 |
23 |
24 |
24 |
25 |
26 |
26 |
27 |
^0,025 |
Ж„,375 |
^0,025 |
^0,975 |
||
20 |
14 |
27 |
40 |
31 |
50 |
21 |
15 |
28 |
42 |
33 |
52 |
22 |
16 |
29 |
44 |
35 |
54 |
23 |
16 |
31 |
46 |
37 |
56 |
24 |
17 |
32 |
48 |
38 |
59 |
25 |
18 |
33 |
50 |
40 |
61 |
26 |
19 |
34 |
55 |
45 |
66 |
27 |
20 |
35 |
60 |
49 |
72 |
23. |
21 |
36 |
65 |
54 |
77 |
29 |
22 |
37 |
70 |
58 |
83 |
30 |
22 |
39 |
75 |
63 |
88 |
32 |
24 |
41 |
80 |
68 |
93 |
34 |
26 |
43 |
85 |
72 |
99 |
36 |
28 |
45 |
90 |
77 |
104 |
38 |
30 |
47 |
95 |
82 |
109 |
100 |
86 |
115 |
Примечание: гипотеза Н0 отклоняется, если эмпирическое число серий Жменьше или равно \У0>025 (больше или равно И^,>975).
Источник: Джонсон Н., Лион Ф. Статистика и планирование эксперимента в технике и науке. М., 1980. С. 547-548.
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КОЭФФИЦИЕНТОВ КОРРЕЛЯЦИИ г-ПИРСОНА (г-СПИРМЕНА) (для проверки ненаправленных альтернатив, п — объем выборки)
п |
Р |
п |
Р |
||||||
0,10 |
0,05 |
0,01 |
0,001 |
0,10 |
0,05 |
0,01 |
0,001 |
||
5 |
0,805 |
0,878 |
0,959 |
0,991 |
46 |
0,246 |
0,291 |
0,376 |
0,469 |
6 |
0,729 |
0,811 |
0,917 |
0,974 |
47 |
0,243 |
0,288 |
0,372 |
0,465 |
7 |
0,669 |
0,754 |
0,875 |
0,951 |
48 |
0,240 |
0,285 |
0,368 |
0,460 |
8 |
0,621 |
0,707 |
0,834 |
0,925 |
49 |
0,238 |
0,282 |
0,365 |
0,456 |
9 |
0,582 |
0,666 |
0,798 |
0,898 |
50 |
0,235 |
0,279 |
0,361 |
0,451 |
10 |
0,549 |
0,632 |
0,765 |
0,872 |
51 |
0,233 |
0,276 |
0,358 |
0,447 |
11 |
0,521 |
0,602 |
0,735 |
0,847 |
52 |
0,231 |
0,273 |
0,354 |
0,443 |
12 |
0,497 |
0,576 |
0,708 |
0,823 |
53 |
0,228 |
0,271 |
0,351 |
0,439 |
13 |
0,476 |
0,553 |
0,684 |
0,801 |
54 |
0,226 |
0,268 |
0,348 |
0,435 |
14 |
0,458 |
0,532 |
0,661 |
0,780 |
55 |
0,224 |
0,266 |
0,345 |
0,432 |
15 |
0,441 |
0,514 |
0,641 |
0,760 |
56 |
0,222 |
0,263 |
0,341 |
0,428 |
16 |
0,426 |
0,497 |
0,623 |
0,742 |
57 |
0,220 |
0,261 |
0,339 |
0,424 |
17 |
0,412 |
0,482 |
0,606 |
0,725 |
58 |
0,218 |
0,259 |
0,336 |
0,421 |
18 |
0,400 |
0,468 |
0,590 |
0,708 |
59 |
0,216 |
0,256 |
0,333 |
0,418 |
19 |
0,389 |
0,456 |
0,575 |
0,693 |
60 |
0,214 |
0,254 |
0,330 |
0,414 |
20 |
0,378 |
0,444 |
0,561 |
0,679 |
61 |
0,213 |
0,252 |
0,327 |
0,411 |
21 |
0,369 |
0,433 |
0,549 |
0,665 |
62 |
0,211 |
0,250 |
0,325 |
0,408 |
22 |
0,360 |
0,423 |
0,537 |
0,652 |
63 |
0,209 |
0,248 |
0,322 |
0,405 |
23 |
0,352 |
0,413 |
0,526 |
0,640 |
64 |
0,207 |
0,246 |
0,320 |
0,402 |
24 |
0,344 |
0,404 |
0,515 |
0,629 |
65 |
0,206 |
0,244 |
0,317 |
0,399 |
25 |
0,337 |
0,396 |
0,505 |
0,618 |
66 |
0,204 |
0,242 |
0,315 |
0,396 |
26 |
0,330 |
0,388 |
0,496 |
0,607 |
67 |
0,203 |
0,240 |
0,313 |
0,393 |
27 |
0,323 |
0,381 |
0,487 |
0,597 |
68 |
0,201 |
0,239 |
0,310 |
0,390 |
28 |
0,317 |
0,374 |
0,479 |
0,588 |
69 |
0,200 |
0,237 |
0,308 |
0,388 |
29 |
0,311 |
0,367 |
0,471 |
0,579 |
70 |
0,198 |
0,235 |
0,306 |
0,385 |
30 |
0,306 |
0,361 |
0,463 |
0,570 |
80 |
0,185 |
0,220 |
0,286 |
0,361 |
31 |
0,301 |
0,355 |
0,456 |
0,562 |
90 |
0,174 |
0,207 |
0,270 |
0,341 |
п |
Р |
п |
Р |
||||||
0,10 |
0,05 |
0,01 |
0,001 |
0,10 |
0,05 |
0,01 |
0,001 |
||
32 |
0,296 |
0,349 |
0,449 |
0,554 |
100 |
0,165 |
0,197 |
0,256 |
0,324 |
33 |
0,291 |
0,344 |
0,442 |
0,547 |
но |
0,158 |
0,187 |
0,245 |
0,310 |
34 |
0,287 |
0,339 |
0,436 |
0,539 |
120 |
0,151 |
0,179 |
0,234 |
0,297 |
35 |
0,283 |
0,334 |
0,430 |
0,532 |
130 |
0,145 |
0,172 |
0,225 |
0,285 |
36 |
0,279 |
0,329 |
0,424 |
0,525 |
140 |
0,140 |
0,166 |
0,217 |
0,275 |
37 |
0,275 |
0,325 |
0,418 |
0,519 |
150 |
0,135 |
0,160 |
0,210 |
0,266 |
38 |
0,271 |
0,320 |
0,413 |
0,513 |
200 |
0,117 |
0,139 |
0,182 |
0,231 |
39 |
0,267 |
0,316 |
0,408 |
0,507 |
250 |
0,104 |
0,124 |
0,163 |
0,207 |
40 |
0,264 |
0,312 |
0,403 |
0,501 |
300 |
0,095 |
0,113 |
0,149 |
0,189 |
41 |
0,260 |
0,308 |
0,398 |
0,495 |
350 |
0,088 |
0,105 |
0,138 |
0,175 |
42 |
0,257 |
0,304 |
0,393 |
0,490 |
400 |
0,082 |
0,098 |
0,129 |
0,164 |
43 |
0,254 |
0,301 |
0,389 |
0,484 |
450 |
0,078 |
0,092 |
0,121 |
0,155 |
44 |
0,251 |
0,297 |
0,384 |
0,479 |
500 |
0,074 |
0,088 |
0,115 |
0,147 |
45 |
0,248 |
0,294 |
0,380 |
0,474 |
600 |
0,067 |
0,080 |
0,105 |
0,134 |
Значения рассчитаны при помощи программы Ехсе1.
ЗНАЧЕНИЯ 2-ПРЕОБРАЗОВАНИЯ ФИШЕРА ДЛЯ КОЭФФИЦИЕНТОВ КОРРЕЛЯЦИИ
га |
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
9 |
0,0 |
0,0000 |
0,0100 |
0,0200 |
0,0300 |
0,0400 |
0,0501 |
0,0601 |
0,0701 |
0,0802 |
0,0902 |
1 |
0,1003 |
0,1105 |
0,1206 |
0,1308 |
0,1409 |
0,1511 |
0,1614 |
0,1717 |
0,1820 |
0,1923 |
2 |
0, 2027 |
0,2132 |
0, 2237 |
0,2342 |
0,2448 |
0,2554 |
0, 2661 |
0, 2769 |
0, 2877 |
0, 2986 |
3 |
0,3095 |
0,3206 |
0,3317 |
0,3428 |
0,3541 |
0,3654 |
0,3769 |
0,3884 |
0,4001 |
0,4118 |
4 |
0,4236 |
0,4356 |
0,4477 |
0,4599 |
0,4722 |
0,4847 |
0,4973 |
0,5101 |
0,5230 |
0,5361 |
5 |
0, 5493 |
0,5627 |
0, 5763 |
0, 5901 |
0,6042 |
0,6184 |
0,6328 |
0,6475 |
0,6625 |
0,6777 |
6 |
0,6931 |
0,7089 |
0,7250 |
0, 7414 |
0,7582 |
0,7753 |
0,7928 |
0,8107 |
0,8291 |
0,8480 |
7 |
0,8673 |
0,8872 |
0,9076 |
0,9287 |
0,9505 |
0,9730 |
0,9962 |
1,0203 |
1,0454 |
1,0714 |
8 |
1,0986 |
1,1270 |
1,1568 |
1,1881 |
1,2212 |
1,2562 |
1,2933 |
1,3331 |
1,3758 |
1,4219 |
9 |
1,4722 |
1,5275 |
1,5890 |
1,6584 |
1,7380 |
1,8318 |
1,9459 |
2,0923 |
2,2976 |
2,6467 |
Значения рассчитаны при помощи программы Ехсе1.
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЯ /-ФИШЕРА ДЛЯ ПРОВЕРКИ НЕНАПРАВЛЕННЫХ АЛЬТЕРНАТИВ
Р— 0,05
Степени свободы для числителя
1 2 3 4 5 6 7 8 10 12 24
17,443 16,044 15,439 15,101 14,885 14,735 14,624 14,540 14,419 14,337 14,124 13,903
10,007 8,434 7,764 7,388 7,146 6,978 6,853 6,757 6,619 6,525 6,278 6,017
8,073 6,542 5,890 5,523 5,285 5,119 4,995 4,899 4,761 4,666 4,415 4,144
6,937 5,456 4,826 4,468 4,236 4,072 3,950 3,855 3,717 3,621 3,365 3,081
6,724 5,256 4,630 4,275 4,044 3,881 3,759 3,664 3,526 3,430 3,173 2,884
6,554 5,096 4,474 4,121 3,891 3,728 3,607 3,512 3,374 3,277 3,019 2,726
6,414 4,965 4,347 3,996 3,767 3,604 3,483 3,388 3,250 3,153 2,893 2,597
6,298 4,857 4,242 3,892 3,663 3,501 3,380 3,285 3,147 3,050 2,789 2,489
6,200 4,765 4,153 3,804 3,576 3,415 3,293 3,199 3,060 2,963 2,701 2,397
6,115 4,687 4,077 3,729 3,502 3,341 3,219 3,125 2,986 2,889 2,625 2,318
5,978 4,560 3,954 3,608 3,382 3,221 3,100 3,005 2,866 2,769 2,503 2,189
5,871 4,461 3,859 3,515 3,289 3,128 3,007 2,913 2,774 2,676 2,408 2,087
5,568 4,182 3,589 3,250 3,026 2,867 2,746 2,651 2,511 2,412 2,136 1,789
5,424 4,051 3,463 3,126 2,904 2,744 2,624 2,529 2,388 2,288 2,007 1,639
5,340 3,975 3,390 3,054 2,833 2,674 2,553 2,458 2,317 2,216 1,931 1,548
5,247 3,890 3,309 2,975 2,754 2,595 2,474 2,379 2,237 2,136 1,847 1,438
5,179 3,828 3,250 2,917 2,696 2,537 2,417 2,321 2,179 2,077 1,784 1,351
5,100 3,758 3,182 2,850 2,630 2,472 2,351 2,256 2,113 2,010 1,712 1,233
з
5 7 10 11 12
9
§
ю о ю
а
с
о н
и
5,027 3,692 3,119 2,788 2,569 2,411 2,290 2,194 2,051 1,947 1,643
Р= 0,01
Степени свободы для числителя
10
12
24
47,468 16,530 10,883 8,081 7,600 7,226 6,926 6,680 6,476 6,303 6,028 5,818 5,239 4,976 4,826 4,661 4,542 4,408 4,284
46,195 15,556 10,050 7,343 6,881 6,521 6,233 5,998 5,803 5,638 5,375 5,174 4,623 4,374 4,232 4,076 3,963 3,837 3,720
45,391 14,939 9,522 6,872 6,422 6,071 5,791 5,562 5,372 5,212 4,956 4,762 4,228 3,986 3,849 3,698 3,589 3,467 3,355
44,838 14,513 9,155 6,545 6,102 5,757 5,482 5,257 5,071 4,913 4,663 4,472 3,949 3,713 3,579 3,431 3,325 3,206 3,096
44,434 14,200 8,885 6,303 5,865 5,524 5,253 5,031 4,847 4,692 4,445 4,257 3,742 3,509 3,376 3,232 3,127 3,010 2,901
3 5 7 10 11 12
55,552 22,785 16,235 12,827 12,226 11,754 11,374 11,060 10,798 10,576 10,218 9,944 9,180 8,828 8,626 8,403 8,241 8,057 7,886
49,800 18,314 12,404 9,427 8,912 8,510 8,186 7,922 7,701 7,514 7,215 6,987 6,355 6,066 5,902 5,720 5,589 5,441 5,304
44,125 13,961 8,678 6,116 5,682 5,345 5,076 4,857 4,674 4,521 4,276 4,090 3,580 3,350 3,219 3,076 2,972 2,856 2,749
43,685 13,618 8,380 5,847 5,418 5,085 4,820 4,603 4,424 4,272 4,030 3,847 3,344 3,117 2,988 2,846 2,744 2,629 2,523
43,387 13,385 8,176 5,661 5,236 4,906 4,643 4,428 4,250 4,099 3,860 3,678 3,179 2,953 2,825 2,684 2,583 2,468 2,363
42,623 12,780 7,645 5,173 4,756 4,431 4,173 3,961 3,786 3,638 3,402 3,222 2,727 2,502 2,373 2,231 2,128 2,012 1,903
41,833 12,147 7,079 4,641 4,228 3,907 3,649 3,439 3,263 3,114 2,876 2,693 2,179 1,935 1,790 1,622 1,490 1,320
л
§
ю о и о к а:
о
с и н
и
Значения рассчитаны при помощи программы Ехсе1.
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЯ
V- М А Н Н А- У И Г Н И (для проверки ненаправленных альтернатив)
Р |
= 0,05 |
|||||||||||||
N2 |
||||||||||||||
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
16 |
17 |
18 |
19 |
20 |
|
3 |
1 |
2 |
2 |
3 |
3 |
4 |
4 |
5 |
5 |
6 |
6 |
7 |
7 |
8 |
4 |
3 |
4 |
4 |
5 |
6 |
7 |
8 |
9 |
10 |
11 |
11 |
12 |
13 |
13 |
5 |
5 |
6 |
7 |
8 |
9 |
11 |
12 |
13 |
14 |
15 |
17 |
18 |
19 |
20 |
6 |
6 |
8 |
10 |
11 |
13 |
14 |
16 |
17 |
19 |
21 |
22 |
24 |
25 |
27 |
7 |
8 |
10 |
12 |
14 |
16 |
18 |
20 |
22 |
24 |
26 |
28 |
30 |
32 |
34 |
8 |
10 |
13 |
15 |
17 |
19 |
22 |
24 |
26 |
29 |
31 |
34 |
36 |
38 |
41 |
9 |
12 |
15 |
17 |
20 |
23 |
26 |
28 |
31 |
34 |
37 |
39 |
42 |
45 |
48 |
10 |
14 |
17 |
20 |
23 |
26 |
29 |
33 |
36 |
39 |
42 |
45 |
48 |
52 |
55 |
11 |
16 |
19 |
23 |
26 |
30 |
33 |
37 |
40 |
44 |
47 |
51 |
55 |
58 |
62 |
12 |
18 |
22 |
26 |
29 |
33 |
37 |
41 |
45 |
49 |
53 |
57 |
61 |
65 |
69 |
13 |
20 |
24 |
28 |
33 |
37 |
41 |
45 |
50 |
54 |
59 |
63 |
67 |
72 |
76 |
14 |
22 |
26 |
31 |
36 |
40 |
45 |
50 |
55 |
59 |
64 |
67 |
74 |
78 |
83 |
15 |
24 |
29 |
34 |
39 |
44 |
49 |
54 |
59 |
64 |
70 |
75 |
80 |
85 |
90 |
16 |
26 |
31 |
37 |
42 |
47 |
53 |
59 |
64 |
70 |
75 |
81 |
86 |
92 |
98 |
17 |
28 |
34 |
39 |
45 |
51 |
57 |
63 |
67 |
75 |
81 |
87 |
93 |
99 |
105 |
18 |
30 |
36 |
42 |
48 |
55 |
61 |
67 |
74 |
80 |
86 |
93 |
99 |
106 |
112 |
19 |
32 |
38 |
45 |
52 |
58 |
65 |
72 |
78 |
85 |
92 |
99 |
106 |
113 |
119 |
20 |
34 |
41 |
48 |
55 |
62 |
69 |
76 |
83 |
90 |
98 |
105 |
112 |
119 |
127 |
Р= 0,01
N2 |
N |
|||||||||||||
7 |
8 |
9 |
10 |
11 |
12 |
13 |
14 |
15 |
16 |
17 |
18 |
19 |
20 |
|
3 |
0 |
0 |
0 |
1 |
1 |
1 |
2 |
2 |
2 |
2 |
3 |
3 |
||
4 |
0 |
1 |
1 |
2 |
2 |
3 |
3 |
4 |
5 |
5 |
6 |
6 |
7 |
8 |
5 |
1 |
2 |
3 |
4 |
4 |
6 |
7 |
7 |
8 |
9 |
10 |
11 |
12 |
13 |
6 |
3 |
4 |
5 |
6 |
6 |
9 |
10 |
11 |
12 |
13 |
15 |
16 |
17 |
18 |
7 |
4 |
6 |
7 |
9 |
9 |
12 |
13 |
15 |
16 |
18 |
19 |
21 |
22 |
24 |
8 |
6 |
7 |
9 |
11 |
11 |
15 |
17 |
18 |
20 |
22 |
24 |
26 |
28 |
30 |
9 |
7 |
9 |
11 |
13 |
13 |
18 |
20 |
22 |
24 |
27 |
29 |
31 |
33 |
36 |
10 |
9 |
11 |
13 |
16 |
16 |
21 |
24 |
26 |
29 |
31 |
34 |
37 |
39 |
42 |
11 |
10 |
13 |
16 |
18 |
18 |
24 |
27 |
30 |
33 |
36 |
39 |
42 |
45 |
48 |
12 |
12 |
15 |
18 |
21 |
21 |
27 |
31 |
34 |
37 |
41 |
44 |
47 |
51 |
54 |
13 |
13 |
17 |
20 |
24 |
24 |
31 |
34 |
38 |
42 |
45 |
49 |
53 |
56 |
60 |
14 |
15 |
18 |
22 |
26 |
26 |
34 |
38 |
42 |
46 |
50 |
54 |
58 |
63 |
67 |
15 |
16 |
20 |
24 |
29 |
29 |
37 |
42 |
46 |
51 |
55 |
60 |
64 |
69 |
73 |
16 |
18 |
22 |
27 |
31 |
31 |
41 |
45 |
50 |
55 |
60 |
65 |
70 |
74 |
79 |
17 |
19 |
24 |
29 |
34 |
34 |
44 |
49 |
54 |
60 |
65 |
70 |
75 |
81 |
86 |
18 |
21 |
26 |
31 |
37 |
37 |
47 |
53 |
58 |
64 |
70 |
75 |
81 |
87 |
92 |
19 |
22 |
28 |
33 |
39 |
39 |
51 |
56 |
63 |
69 |
74 |
81 |
87 |
93 |
99 |
20 |
24 |
30 |
36 |
42 |
42 |
54 |
60 |
67 |
73 |
79 |
86 |
92 |
99 |
105 |
Источник: Мартин Д. Психологические эксперименты. СПб, 2002. С. 453-454
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЯ Г-ВИЛКОКСОНА (для проверки ненаправленных альтернатив)
Уровень значимости для |
Уровень значимости для |
||||||||
одностороннего критерия |
одностороннего критерия |
||||||||
0,05 |
0,025 |
0,01 |
0,005 |
0,05 |
0,025 |
0,01 |
0,005 |
||
п |
Уровень значимости для |
п |
Уровень значимости для |
||||||
двустороннего критерия |
двустороннего критерия |
||||||||
0,10 |
0,05 |
0,02 |
0,01 |
0,10 |
0,05 |
0,02 |
0,01 |
||
5 |
0 |
28 |
130 |
116 |
101 |
91 |
|||
6 |
2 |
0 |
— |
— |
29 |
140 |
126 |
110 |
100 |
7 |
3 |
2 |
0 |
— |
30 |
151 |
137 |
120 |
109 |
8 |
5 |
3 |
1 |
0 |
31 |
163 |
147 |
130 |
118 |
9 |
8 |
5 |
3 |
1 |
32 |
175 |
159 |
140 |
128 |
10 |
10 |
8 |
5 |
3 |
33 |
187 |
170 |
151 |
138 |
11 |
13 |
10 |
7 |
5 |
34 |
200 |
182 |
162 |
148 |
12 |
17 |
13 |
9 |
7 |
35 |
213 |
195 |
173 |
159 |
13 |
21 |
17 |
12 |
9 |
36 |
227 |
208 |
185 |
171 |
14 |
25 |
21 |
15 |
12 |
37 |
241 |
221 |
198 |
182 |
15 |
30 |
25 |
19 |
15 |
38 |
256 |
235 |
211 |
194 |
16 |
35 |
29 |
23 |
19 |
39 |
271 |
249 |
224 |
207 |
17 |
41 |
34 |
27 |
23 |
40 |
286 |
264 |
238 |
220 |
18 |
47 |
40 |
32 |
27 |
41 |
302 |
279 |
252 |
233 |
19 |
53 |
46 |
37 |
32 |
42 |
319 |
294 |
266 |
247 |
20 |
60 |
52 |
43 |
37 |
43 |
336 |
310 |
281 |
261 |
(21 |
67 |
58 |
49 |
42 |
44 |
353 |
327 |
296 |
276 |
*22 |
75 |
65 |
55 |
48 |
45 |
371 |
343 |
312 |
291 |
23 |
83 |
73 |
62 |
54 |
46 |
389 |
361 |
328 |
307 |
24 |
91 |
81 |
69 |
61 |
47 |
407 |
378 |
345 |
322 |
25 |
100 |
89 |
76 |
68 |
48 |
426 |
396 |
362 |
339 |
26 |
110 |
98 |
84 |
75 |
49 |
446 |
415 |
379 |
355 |
27 |
119 |
107 |
92 |
83 |
50 |
466 |
434 |
397 |
373 |
Источник: Мартин Д. Психологические эксперименты. СПб, 2002. С. 457
Приложение 11
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЯ О ЗНАКОВ (для проверки ненаправленных альтернатив)
п |
Р |
/1 |
Р |
п |
Р |
п |
Р |
||||
0,05 |
0,01 |
0,05 |
0,01 |
0,05 |
0,01 |
0,05 |
0,01 |
||||
5 |
0 |
— |
27 |
8 |
7 |
49 |
18 |
15 |
92 |
37 |
34 |
6 |
0 |
— |
28 |
8 |
7 |
50 |
18 |
16 |
94 |
38 |
35 |
7 |
0 |
0 |
29 |
9 |
7 |
52 |
19 |
17 |
96 |
39 |
36 |
8 |
1 |
0 |
30 |
10 |
8 |
54 |
20 |
18 |
98 |
40 |
37 |
9 |
1 |
0 |
31 |
10 |
8 |
56 |
21 |
18 |
100 |
41 |
37 |
10 |
1 |
0 |
32 |
10 |
8 |
58 |
22 |
19 |
110 |
45 |
42 |
11 |
2 |
1 |
33 |
11 |
9 |
60 |
23 |
20 |
120 |
50 |
46 |
12 |
2 |
1 |
34 |
11 |
9 |
62 |
24 |
21 |
130 |
55 |
51 |
13 |
3 |
1 |
35 |
12 |
10 |
64 |
24 |
22 |
140 |
59 |
55 |
14 |
3 |
2 |
36 |
12 |
10 |
66 |
25 |
23 |
150 |
64 |
60 |
15 |
3 |
2 |
37 |
13 |
10 |
68 |
26 |
23 |
160 |
69 |
64 |
16 |
4 |
2 |
38 |
13 |
11 |
70 |
27 |
24 |
170 |
73 |
69 |
17 |
4 |
3 |
39 |
13 |
11 |
72 |
28 |
25 |
180 |
78 |
73 |
18 |
5 |
3 |
40 |
14 |
12 |
74 |
29 |
26 |
190 |
83 |
78 |
19 |
5 |
4 |
41 |
14 |
12 |
76 |
30 |
27 |
200 |
87 |
83 |
20 |
5 |
4 |
42 |
15 |
13 |
оо |
31 |
28 |
220 |
97 |
92 |
21 |
6 |
4 |
43 |
15 |
13 |
80 |
32 |
29 |
240 |
106 |
101 |
22 |
6 |
5 |
44 |
16 |
13 |
82 |
33 |
30 |
260 |
116 |
110 |
23 |
7 |
5 |
45 |
16 |
14 |
84 |
33 |
30 |
280 |
125 |
120 |
24 |
7 |
5 |
46 |
16 |
14 |
86 |
34 |
31 |
300 |
135 |
129 |
25 |
7 |
6 |
47 |
17 |
15 |
88 |
35 |
32 |
|||
26 |
8 |
6 |
48 |
17 |
15 |
90 |
36 |
33 |
Источник: Сидоренко Е. Методы математической обработки в психологии. СПб, 2002. С. 323
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЯ Н-КРАСКАЛА-УОЛЛЕСА ДЛЯ ТРЕХ ВЫБОРОК ЧИСЛЕННОСТЬЮ п < 5 (для проверки ненаправленных альтернатив)
Размеры выборки |
Н |
Р |
Размеры выборки |
Н |
Р |
|
п\ "2 |
«з |
«1 «2 "3 |
||||
2 1 |
1 |
2,7000 |
0,500 |
4 3 2 |
6,4444 |
0,008 |
6,3000 |
0,011 |
|||||
2 2 |
1 |
3,6000 |
0,200 |
5,4444 |
0,046 |
|
5,4000 |
0,051 |
|||||
2 2 |
2 |
4,5714 |
0,067 |
4,5111 |
0,098 |
|
3,7143 |
0,200 |
4,4444 |
0,102 |
|||
3 1 |
1 |
3,2000 |
0,300 |
4 3 3 |
6,7455 |
0,010 |
6,7091 |
0,013 |
|||||
3 2 |
1 |
4,2857 |
0,100 |
5,7909 |
0,046 |
|
3,8571 |
0,133 |
5,7273 |
0,050 |
|||
4,7091 |
0,092 |
|||||
3 2 |
2 |
5,3572 |
0,029 |
4,7000 |
0,101 |
|
4,7143 |
0,048 |
|||||
4,5000 |
0,067 |
4 4 1 |
6,6667 |
0,010 |
||
4,4643 |
0,105 |
6,1667 |
0,022 |
|||
4,9667 |
0,048 |
|||||
3 3 |
1 |
5,1429 |
0,043 |
4,8667 |
0,054 |
|
4,5714 |
0,100 |
4,1667 |
0,082 |
|||
4,0000 |
0,129 |
4,0667 |
0,102 |
|||
3 3 |
2 |
6,2500 |
0,011 |
4 4 2 |
7,0364 |
0,006 |
5,3611 |
0,032 |
6,8727 |
0,011 |
|||
5,1389 |
0,061 |
5,4545 |
0,046 |
|||
4,5556 |
0,100 |
5,2364 |
0,052 |
|||
4,2500 |
0,121 |
4,5545 |
0,098 |
|||
4,4455 |
0,103 |
|||||
3 3 |
3 |
7,2000 |
0,004 |
Размеры выборки |
Н |
Р |
Размеры выборки |
Н |
Р |
|||
пх п2 |
"з |
щ |
п2 |
щ |
||||
6,4889 |
0,011 |
4 |
4 |
3 |
7,1439 |
0,010 |
||
5,6889 |
0,029 |
7,1364 |
0,011 |
|||||
5,6000 |
0,050 |
5,5985 |
0,049 |
|||||
5,0667 |
0,086 |
5,5758 |
0,051 |
|||||
4,6222 |
0,100 |
4,5455 |
0,099 |
|||||
4,4773 |
0,102 |
|||||||
4 1 |
1 |
3,5714 |
0,200 |
|||||
4 2 |
1 |
4,8214 |
0,057 |
4 |
4 |
4 |
7,6538 |
0,008 |
4,5000 |
0,076 |
7,5385 |
0,011 |
|||||
4,0179 |
0,114 |
5,6923 |
0,049 |
|||||
5,6538 |
0,054 |
|||||||
4 2 |
2 |
6,0000 |
0,014 |
4,6539 |
0,097 |
|||
5,3333 |
0,033 |
4,5001 |
0,104 |
|||||
5,1250 |
0,052 |
|||||||
4,4583 |
0,100 |
5 |
1 |
1 |
3,8571 |
0,143 |
||
4,1667 |
0,105 |
|||||||
5 |
2 |
1 |
5,2500 |
0,036 |
||||
4 3 |
1 |
5,8333 |
0,021 |
5,0000 |
0,048 |
|||
5,2083 |
0,050 |
4,4500 |
0,071 |
|||||
5,0000 |
0,057 |
4,2000 |
0,095 |
|||||
4,0556 |
0,093 |
4,0500 |
0,119 |
|||||
3,8889 |
0,129 |
|||||||
5 |
4 |
4 |
7,7604 |
0,009 |
||||
5 2 |
2 |
6,5333 |
0,008 |
7,7440 |
0,011 |
|||
6,1333 |
0,013 |
5,6571 |
0,049 |
|||||
5,1600 |
0,034 |
5,6176 |
0,050 |
|||||
5,0400 |
0,056 |
4,6187 |
0,100 |
|||||
4,3733 |
0,090 |
4,5527 |
0,102 |
|||||
4,2933 |
0,122 |
|||||||
5 |
5 |
1 |
7,3091 |
0,009 |
||||
5 3 |
1 |
6,4000 |
0,012 |
6,8364 |
0,011 |
|||
4,9600 |
0,048 |
5,1-273 |
0,046 |
|||||
4,8711 |
0,052 |
4,9091 |
0,053 |
|||||
4,0178 |
0,095 |
4,1091 |
0,086 |
|||||
3,8400 |
0,123 |
4,0364 |
0,105 |
|||||
5 3 |
2 |
6,9091 |
0,009 |
5 |
5 |
2 |
7,3385 |
0,010 |
6,8218 |
0,010 |
7,2692 |
0,010 |
|||||
5,2509 |
0,049 |
5,3385 |
0,047 |
|||||
5,1055 |
0,052 |
5,2462 |
0,051 |
|||||
4,6509 |
0,091 |
4,6231 |
0,097 |
|||||
4,4945 |
0,101 |
4,5077 |
0,100 |
Размеры выборки |
Я |
Р |
Размеры выборки |
Я |
Р |
П\ п2 «з |
«1 л2 из |
||||
5 3 3 |
7,0788 |
0,009 |
5 5 3 |
7,5780 |
0,010 |
6,9818 |
0,011 |
7,5429 |
0,010 |
||
5,6485 |
0,049 |
5,7055 |
0,046 |
||
5,5152 |
0,051 |
5,6264 |
0,051 |
||
4,5333 |
0,097 |
4,5451 |
0,100 |
||
4,4121 |
0,109 |
||||
5 4 1 |
6,9545 |
0,008 |
5 5 4 |
7,8229 |
0,010 |
6,8400 |
0,011 |
7,7914 |
0,010 |
||
4,9855 |
0,044 |
5,6657 |
0,049 |
||
4,8600 |
0,056 |
5,6429 |
0,050 |
||
3,9873 |
0,098 |
4,5229 |
0,099 |
||
3,9600 |
0,102 |
4,5200 |
0,101 |
||
5 4 2 |
7,2045 |
0,009 |
5 5 5 |
8,0000 |
0,009 |
7,1182 |
0,010 |
7,9800 |
0,010 |
||
5,2727 |
0,049 |
5,7800 |
0,049 |
||
5,2682 |
0,050 |
5,6600 |
0,051 |
||
4,5409 |
0,098 |
4,5600 |
0,100 |
||
4,5182 |
0,101 |
4,5000 |
0,102 |
||
5 4 3 |
7,4449 |
0,010 |
|||
7,3949 |
0,011 |
||||
5,6564 |
0,049 |
||||
5,6308 |
0,050 |
||||
4,5487 |
0,099 |
||||
4,5231 |
0,103 |
Источник: Мартин Д. Психологические эксперименты. СПб, 2002. С. 460-462
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЯ Х2-ФРИДМАНА ДЛЯ ТРЕХ ВЫБОРОК ЧИСЛЕННОСТЬЮ п < 10 (для проверки ненаправленных альтернатив)
п = |
= 2 |
п = |
= 3 |
п |
= 4 |
п |
= 5 |
Х\ |
Р |
X2, |
Р |
X2 |
Р |
х; |
Р |
0 |
1,000 |
0,000 |
1,000 |
0,0 |
1,000 |
0,0 |
1,000 |
1 |
0,833 |
0,667 |
0,944 |
0,5 |
0,931 |
0,4 |
0,954 |
3 |
0,509 |
2,000 |
0,528 |
1,5 |
0,653 |
1,2 |
0,691 |
4 |
0,167 |
2,667 |
0,361 |
2,0 |
0,431 |
1,6 |
0,522 |
4,667 |
0,194 |
3,5 |
0,273 |
2,8 |
0,367 |
||
6,000 |
0,028 |
4,5 |
0,125 |
3,6 |
0,182 |
||
6,0 |
0,069 |
4,8 |
0,124 |
||||
6,5 |
0,042 |
5,2 |
0,093 |
||||
8,0 |
0,0046 |
6,4 |
0,039 |
||||
7,6 |
0,024 |
||||||
8,4 |
0,0085 |
||||||
10,0 |
0,00077 |
||||||
п |
= 6 |
п = |
= 7 |
п |
= 8 |
п |
= 9 |
х; |
Р |
Хг |
Р |
X2, |
Р |
х; |
Р |
0,00 |
1,000 |
0,000 |
1,000 |
0,00 |
1,000 |
0,000 |
1,000 |
0,33 |
0,956 |
0,286 |
0,964 |
0,25 |
0,967 |
0,222 |
0,971 |
1,00 |
0,740 |
0,857 |
0,768 |
0,75 |
0,794 |
0,667 |
0,814 |
1,33 |
0,570 |
1,143 |
0,620 |
1,00 |
0,654 |
0,889 |
0,865 |
2,33 |
0,430 |
2,000 |
0,486 |
1,75 |
0,531 |
1,556 |
0,569 |
3,00 |
0,252 |
2,571 |
0,305 |
2,25 |
0,355 |
2,000 |
0,398 |
4,00 |
0,184 |
3,429 |
0,237 |
3,00 |
0,285 |
2,667 |
0,328 |
4,33 |
0,142 |
3,714 |
0,192 |
3,25 |
0,236 |
2,889 |
0,278 |
5,33 |
0,072 |
4,571 |
0,112 |
4,00 |
0,149 |
3,556 |
0,187 |
6,33 |
0,052 |
5,429 |
0,085 |
4,75 |
0,120 |
4,222 |
0,154 |
7,00 |
0,029 |
6,000 |
0,052 |
5,25 |
0,079 |
4,667 |
0,107 |
8,33 |
0,012 |
7,143 |
0,027 |
6,25 |
0,047 |
5,556 |
0,069 |
9,00 |
0,0081 |
7,714 |
0,021 |
6,75 |
0,038 |
6,000 |
0,057 |
п = |
= 6 |
п = |
= 7 |
п = |
= 8 |
п |
= 9 |
х\ |
Р |
Хг |
Р |
X2, |
Р |
Р |
|
9,33 |
0,0055 |
8,000 |
0,016 |
7,00 |
0,030 |
6,222 |
0,048 |
10,33 |
0,0017 |
8,857 |
0,0084 |
7,75 |
0,018 |
6,889 |
0,031 |
12,00 |
0,00013 |
10,286 |
0,0036 |
9,00 |
0,0099 |
8,000 |
0,019 |
10,571 |
0,0027 |
9,25 |
0,0080 |
8,222 |
0,016 |
||
и,из> |
Э,1Ъ |
0,004В |
8,667 |
0,010 |
|||
12,286 |
0,00032 |
10,75 |
0,0024 |
9,556 |
0,0060 |
||
14,000 |
0,000021 |
12,00 |
0,0011 |
10,667 |
0,0035 |
||
12,25 |
0,00086 |
10,889 |
0,0029 |
||||
13,00 |
0,00026 |
11,556 |
0,0013 |
||||
14,25 |
0,000061 |
12,667 |
0,00066 |
||||
16,00 |
0,0000036 |
13,556 |
0,00035 |
||||
14,000 |
0,00020 |
||||||
14,222 |
0,000097 |
||||||
14,889 |
0,000054 |
||||||
16,222 |
0,000011 |
||||||
18,000 |
0,0000006 |
КРИТИЧЕСКИЕ ЗНАЧЕНИЯ КРИТЕРИЯ У.2-ФРИДМАНА ДЛЯ ЧЕТЫРЕХ ВЫБОРОК ЧИСЛЕННОСТЬЮ п < 5
п = |
= 2 |
п = |
= 3 |
п |
= 4 |
||
X2, |
Р |
Хл |
Р |
X2 |
Р |
X2 |
Р |
0,0 |
1,000 |
0,0 |
1,000 |
0,0 |
1,000 |
5,7 |
0,141 |
0,6 |
0,958 |
0,6 |
0,958 |
0,3 |
0,992 |
6,0 |
0,105 |
1,2 |
0,834 |
1,0 |
0,910 |
0,6 |
0,928 |
6,3 |
0,094 |
1,8 |
0,792 |
1,8 |
0,727 |
0,9 |
0,900 |
6,6 |
0,077 |
2,4 |
0,625 |
2,2 |
0,608 |
1,2 |
0,800 |
6,9 |
0,068 |
3,0 |
0,542 |
2,6 |
0,524 |
1,5 |
0,754 |
7,2 |
0,054 |
3,6 |
0,458 |
3,4 |
0,446 |
1,8 |
0,677 |
7,5 |
0,052 |
4,2 |
0,375 |
3,8 |
0,342 |
2,1 |
0,649 |
7,8 |
0,036 |
4,8 |
0,208 |
4,2 |
0,300 |
2,4 |
0,524 |
8,1 |
0,033 |
5,4 |
0,167 |
5,0 |
0,207 |
2,7 |
0,508 |
8,4 |
0,019 |
6,0 |
0,042 |
5,4 |
0,175 |
3,0 |
0,432 |
8,7 |
0,014 |
5,8 |
0,148 |
3,3 |
0,389 |
9,3 |
0,012 |
||
6,6 |
0,075 |
3,6 |
0,355 |
9,6 |
0,0069 |
||
7,0 |
0,054 |
3,9 |
0,324 |
9,9 |
0,0062 |
||
7,4 |
0,033 |
4,5 |
0,242 |
10,2 |
0,0027 |
||
8,2 |
0,017 |
4,8 |
0,200 |
10,8 |
0,0016 |
||
9,0 |
0,0017 |
5,1 |
0,190 |
П,1 |
0,00094 |
||
5,4 |
0,158 |
12,0 |
0,000072 |
Источник: Сидоренко Е. Методы математической обработки в психологии. СПб, 2002. С. 325-326
АНГЛО-РУССКИЙ ТЕРМИНОЛОГИЧЕСКИЙ СЛОВАРЬ
1-5ашр1е К-8 Те5( — критерий (тест) Колмогорова—Смирнова
АЬ«о1и1е уа1ие — абсолютное значение Ас(иа1 (уа1ие, ^гоир) — действительное, реальное (значение, группа) А(Ы — добавить
Афишей — исправленный (улучшенный) АЛуапсес! (Мойе1) — специальная, более совершенная (модель) А§§1отега(юп $с11е(1и1е — последовательность
агломерации (объединения) АЬ8САЬ — программа неметрического многомерного шкалирования Ата1§ата(юп — слияние, объединение Апа1уге — анализировать А1ЧОУА — дисперсионный анализ АрргоасЬ — подход
Ажите — принятие (допущение, предположение)
А$утше1пс — асимметричная
Авушр. — примерный (приближенный)
уровень значимости Ауегаее Ыпка&е — средней связи (метод кластеризации) Ауегаеей — усредненный Ах18 — ось (координат) ВагМеМ'з Те$1 оГ 8рЬепс11у — тест сферичности Бартлета Ва5С(1 оп — основанный на (исходящий из) Ве(а-СоеПк1еп1 — стандартизированный коэффициент регрессии ВеЬуееп (оЪ]сс15, уапаЫей) — между (объектами, переменными) Ве(\уееп Сгоир$ Ьшка§е — межгрупповой
(средней) связи (метод кластеризации) ВеЬуееп-Сгоир — межгрупповой
Ве1\\'ееп-8иЬ]ес1 — между объектами (межгрупповой)
Втагу Меа5иге$ — количественные показатели (меры) для бинарных данных Вшош1а1 Те5{ — биномиальный критерий В1уапа(е — двумерный ВохЧ М-1е«1 — М—тест Бокса Сапошса1 Апа1у$1$ — канонический анализ Сазе — случай (испытуемый) Саземве <1е1е1юп — исключение из анализа случая (строки), в котором имеется пропуск хотя бы одного значения Са1е§опе5 — категории (номинативного признака)
Са(е§оп2а(юп — операция выделения интервалов квантования (или значений переменной) при построении гистограммы и составлении таблицы частот Се11 — ячейка (таблицы) Сеп1га1 Тепйепсу — центральная тенденция
(мера) Сеп(гои1 — центроид СЫ I — хи-квадрат
СЫ-здиаге (Те$1) — хи-квадрат (критерий) С1а55|Гу — классифицировать С1и«1ег СотЫпеЛ — объединенные кластеры С1и§(ег Ме(1к><1 — метод кластеризации СоеГНс1еп1(5) — коэффициент(ы) Со1ишп — столбец
СошЬше — объединение, объединять СоттипаШу — общность Сотраге — сравнивать Сотраге Меап$ — сравнение средних Сотрапздп — сравнение Сотр1е1е Ьшка§е — полной связи (метод кластеризации) Сотри1е — вычисление, вычислять СошПНопаШу — условность, обусловленность (подгонки)
СопЛйепсе (1п1егуа1) — доверительный (интервал) Соп$(ап( — константа Соп(га$( — контраст
Соп(го11ш§ Гог... — контролировать (фиксировать) для...
Сопуег^епсе — сходимость (при подгонки) Соггес1е<1 (Мо<1е1) — исправленная, скорректированная (модель) СоггеЫе — коррелировать (определять совместную изменчивость) СоггеЫюп ша!пх — корреляционная матрица Соип( Меавиге — количественный показатель
(мера) частоты Соуапапсе — ковариация Соуапа(е — ковариата СгНепа (СгКепоп) — условие (критерий) Сго551яЬиЫюп (Сго551аЬ) — сопряженность,
кросстабуляция СитиЫНе Гп^иепс1с5 — кумулятивные (накопленные) частоты Си$(ош Мойс! — специальная модель Си1 Рош1 — точка деления Оа1а — данные
Оа1а Е(Шог — редактор (таблица) исходных
данных в 5РЗЗ Оа1а КейисНоп — сокращение данных (метод) ОеПпе (Сгоирз) — определение, задание (групп) Ое§гее5 оНгеейот (<1() — число степеней свободы
Ое1е(юп — удаление (исключение) Оеп(1го8гаш — дендрограмма (древовидный график)
Оепхку РипсИоп — функция плотности вероятности
ОерепЛеп! 8атр1е — зависимая выборка Оереп<1еп{-8атр1е5 ТТе5{ — критерий 1-Стью-
дента для зависимых выборок Оепуей — производный Ое$спрИ\е 8(а115(1С5 — описательные статистики
ЙГ — число степеней свободы (сокр.) ОКТегепсе — разность, различие Ошепыоп — шкала
и1$спшшап( Лпа]у515 — дискриминантный ан- лиз
015реГ5Ю11 — изменчивость 0|5шш]ап1у — различие 0|$(апсе — расстояние ОЫпЬиНоп — распределение ОЫпЬиИоп РипсИоп — функция распределения (вероятности) Е(Тес1 — влияние (фактора) Е1§епуа1ие — собственное значение Еп(ег — исходный (метод)
Еи1гу — включение
ЕрзНоп Соггес1е<1 — с Эпсилон-коррекцией Е^иа1 — одинаковые
Ециа1 Уапапсев — одинаковые (эквивалентные) дисперсии Е^иа1^^у (оГУапапсез) — эквивалентность, равенство (дисперсии) Еггог — ошибка Е$(1ша(е — оценка
ЕисНйеап ОЫапсс — Евклидово расстояние Ехас( — точный, точно Ехас1 — точный уровень значимости ЕхсМе (са$е$) — исключение (объектов) Ехрес1е(1 Ргечиепсу (Уа1ие) — ожидаемая (теоретическая) частота (значение) Ехр1аше<1 (Уапапсе) — «объясненная» (дисперсия)
Ех1гасИоп МеНюй — метод факторизации (экстракции факторов) Рас1ог — фактор
Гас(ог Апа1у515 — факторный анализ Рас1ог ЬоасИп^ — факторные нагрузки Гас(ог Зсоге соеГПсмеп(5 — коэффициенты факторных оценок Рас1ог 8соге$ — факторные оценки Р|5Ьег*5 Ехас! Те$1 — точный критерий Фишера Г|хе<1 (Рас1ог) — постоянный, фиксированный
(фактор) Рог Ма(пх — для всей матрицы Р-га1ю Уапапсев — значение Р-критсрия
(Р-отношения) для дисперсий Ргечиепсу — частота Ргечиепсу (аЫе$ — таблицы частот Гпе(1тап (АNОVА) — критерий Фридмана Ри11 Гас(опа1 то(1е] — модель, включающая все факторы
Риг(1)е$( ^еЬЬог — дальнего соседа (метод
кластеризации) Сепега1 Упеаг Мос1е1 — общая линейная модель СепегаН/.е(11еаз1 ^иаге$ — обобщенный метод
наименьших квадратов СЬМ — общая линейная модель (сокр.) Соо(1пе$$-оГ-П! — качество подгонки Сгоир МетЬег$Ыр — принадлежность к группе Сгоир Р1о15 — график(и) для всей группы Сгоирш§ УапаЫе — группирующая переменная
Н1егагс1иса1 С1ив1ег Апа1уы$ — иерархический
кластерный анализ НЫоёгат — гистограмма Потодепеку оГ Уапапсев — гомогенность (однородность) дисперсий НопгопЫ — горизонтальная (ориентация) 1та§е Рас1опп(> — факторный анализ образов 1шргоуешеп( — улучшение (с поправкой) 1ш1ереш1еп( 8атр1е — независимая выборка 1ш1ереш1еп(-8атр1е$ ТТев! — критерий 1-Стыо-
дентадля независимых выборок 1шПу|(1иа1 ОНТегепсез (шо(1е1) — индивидуальных различий (модель) ШОЗСАЬЕ — программа многомерного шкалирования индивидуальных различий 1пШа1 (сопс1Шст$) — начальные (условия) 1при( РИе — исходный, входящий файл 1п(егас(юп — взаимодействие 1п1егсер{ — свободный член (уравнения) 1п1егуа1 — интервальная (шкала) 1п(егуа1 (1а(а — данные в интервальной шкале 1п(егуа1 8са1е — интервальная шкала 1пуег$е йЫпЬиНоп ГипсИоп — обратная функция распределения НегаМоп — итерация
Кега(юп Ы$1огу — «история» (последовательность) итераций НегаИош $1оррей... — итерации остановлены... .1ошш§ — объединение, связь КегкЫГз 1аи — тау-Кендалла (корреляция) Кеп(1а11'51аи-Ь — тау-Ь Кендалла (корреляция) Кги$ка1-\\'аШ5 Н — критерий Н-Краскала Уоллеса
Кги$ка1-\\'аШ$ опе-\\ау апа1у515 оГуапапсе — од-
нофакторный дисперсионный анализ Краскала—Уоллеса Киг(о$1$ — эксцесс ЬаЬе1 — метка, обозначение Ьсуе1 — уровень
Ье>е1 оГМеавигешеп! — уровень (шкала) измерения
Ьеуепе'5 Тез! — критерий Ливена
Ьшеаг Ке&гекюп — линейный регрессионный
Ьшка^е — соединение, связь
— список и$(\\'1$е — построчно
1лхМ«е 1)е1е1юп — исключение из анализа случая (строки), в котором имеется пропуск хотя бы одного значения Ьоас!ш§ — нагрузка
МаппЛУШпеу 11 — критерий Ы-Манна-Уитни МА1ЧОУА — многомерный дисперсионный анализ
Маг§ша1 (Меап$) — отдельные (средние значения) Ма1псев — матрицы Ма1пх — матрица
МаисЫу'5 Те5{ оГ ЗрЬепсИу — тест сферичности Моучли Мах1шиш ЫкеШюос! —максимального правдоподобия (метод) Мс1Четаг Тез1 — критерий Мак-Нимара Меап — среднее
Меап о1^иаге5 (М8) — средний квадрат Меап 8иЬ$(ки(юп — замена пропущенных значений средними Меап5 Р1о1 — график средних значений Меа$игешеп( — измерение МесПап — медиана
М|$$ш§ (Уа1ие5) — пропущенные (значения) М-Ь (Мах1шиш НкеШюой) — максимального
правдоподобия (метод, оценка) Мойе — мода
Моп(е Саг1о Ме11ю<1 — статистический метод
«Монте-Карло» Ми1(и1|теп5юпа1 8са1ш§ — многомерное шкалирование МиШр1е — множественный МиШр1е сотрап8оп5 — множественные сравнения (средних) Ми1Иуапа(е — многомерный Ми1(|уапа(е АрргоасЬ — многомерный подход №аге51 ГЧсщЬЪог — ближайшего соседа (метод
кластеризации) №§а1|уе — отрицательный N6x1 — следующий 1Чотша1 — номинальная (шкала) 1\опрагате1пс Те$1 — непараметрический критерий
1Чогта1 Сигуе — нормальная кривая 1\'итЬег — количество (численность), номер ОЬвегуей Ргециепсу — наблюдаемая (эмпирическая) частота ОЬзегуей Ргор. — наблюдаемое (эмпирическое) соотношение Опе-8атр1е Ко1то(>огоу-8т|Гноу Те«4 — критерий (тест) Колмогорова-Смирнова Опе-8ашр1с Т Те«1 — критерий г-Стьюдента
для одной выборки Опе-(аНе(1 (опе-зМей) — односторонний критерий (для проверки односторонних гипотез); опе-1айес1 — дословно однохвостый Опе-\Уау А>ЮУА — однофакторный дисперсионный анализ Огс!ша1 (Капк огйег) — порядковая (ранговая) (шкала)
Ра1ге(1-8ашр1е5 Т Те$1 — критерий /-Стьюден-
та для зависимых выборок Ра1пу1$е — попарно, попарный Раг(1а1 СоггеЫюп — частная корреляция (коэффициент) Реагвоп С^1^-8^иаге — критерий хи—квадрат Пирсона
Реагвоп соггеЫюп — корреляция Пирсона
Реагвоп г — корреляция Писрона
Регсеп1а§е — процент
РегсепШев — процентили
РЫ — фи—коэффициент сопряженности
РЫ 4-рош($ соггеЫюп — (четырехклеточный) фи—коэффициент сопряженности (Пирсона)
РН1аГ$ Тгасе — след Пиллая Р-1еуе1 — статистическая значимость (р-уровень) Р1о1 — диаграмма Ро1упо1ша1 — полином (многочлен) {'081 Нос — апостериорный (после подтверждения гипотезы) Р-Р Р1о1 — график накопленных частот Ргейк1е(1 (уа1ие, §гоир) — предсказанное (значение, группа) Рппс1ра1 Ах15 Рас(опп§ — факторный анализ
методом главных осей РппЫра! Сотропеп1« — главных компонент (анализ)
Рпог ргоЬаЬНШез — априорные вероятности
РгоЬаЬПНу — вероятность
РгоЬаЬНКу оГ §гоир тетЬегзЫр — вероятность
принадлежности к группе РГ0Х1Ш|1у — близость
РКОХЗСАЬ — программа неметрического
многомерного шкалирования 0-0 Р1о1 — квантильный график ОиапШе — квантиль ОиагШе — квартиль
К Зяиаге (К2) — коэффициент детерминации
(квадрат коэффициента корреляции) Капйот (Гас(ог) — случайный (фактор) Кащ>е — размах Капк — ранг
Капк (Сазе$) — ранжировать (объекты) КаНо — абсолютная шкала (равных отношений) Ка\у — строка
Каш Оа1а — данные в строках (типа «объект- признак»)
Кес(ап§и1аг (та1пх) — прямоугольная (матрица) Ке§ге$$юп — регрессионный Кебгеиюп Сое№с1еп1 — коэффициент регрессии
Ке§ге$$юп Ыпе — линия регрессии Ке1а(е<1 8атр1е$ — зависимые (связанные) выборки Кешо\а1 — удаление
Кереа1ес! Меавигея — повторные измерения Кереа(е<1 Меа$иге$ АNОVА — дисперсионный
анализ с повторными измерениями Ке$Ыиа1 — остаток, отклонение (ошибка модели)
Кеы(1иа1 апа1уы$ — анализ остатков (ошибок) Ко(а(юп (Рас(ог5) — вращение (факторов) Ко(а(юп Ме11ю<1 — метод вращения Коуу — строка
К80 (К-5Яиаге) — квадрат коэффициента корреляции, коэффициент дискриминации (г-квадрат) Кип — серия
Кипя Те$4 — критерий серий 8атр1е — выборка
8са1ш@ то(1е] — модель шкалирования 8са11ег Р1о1 — диаграмма рассеивания 8сЬеГГё 1е$( — метод Шеффе (множественных
сравнений средних) 8сгее р1о! — график собственных значений 8сгее-1е$1 — критерий отсеивания ЗсгоИкЬее! — таблица результатов статистического анализа 5ерага(е (Упе) — отдельная (линия) 8е( — множество 81)аре — уточнить
8|§. — уровень значимости (р-уровень) 81§п — знак
Зщп Те5< — критерий знаков
81§шЛсапсе Ьеуе1 — уровень статистической
значимости (р-уровень) §|$>шГ|сап( — статистически значимый 81шПагку — сходство 8|шр1е — простой
8|шр1е Ма1сЫп§ — простой коэффициент со-
встречаемости (бинарный) 8ш§1е Шка§е — одиночной связи (метод кластеризации) 81ге (НГГегепсе — величина различий (бинарная) 8кеш1е5$ — асимметрия 81оре — уклон, наклон (прямой по отношению к оси X), значение коэффициента регрессии 8о1и(юп — решение (выбор) 8оигсе — источник (изменчивости, влияния) 8реагтап'$ гЬо (г) — корреляция Спирмена
(коэффициент) 8ресИу — определять
ЗргеасШше! — электронная таблица для исходных данных 8Р88 — компьютерная программа «Статистический пакет для социальных наук» (сокр.) 8^иаге аяушгпеМс ($утте(пс) та(пх — квадратная асимметричная (симметричная) матрица
3^иаге<1 (ЕисНйеап ЛЫапсе) — квадрат (Евклидова расстояния) 8-5{ге55 сопуегеепсе — величина сходимости 5-
стресса 81а§е — ступень (этап, шаг) 8(аш!ап1 (1еу1аИоп) — стандартное отклонение (сигма)
81ап(1агс1 еггог — стандартная ошибка
81апйаг(|1ге(1 (Ве(а-) СоеГВс1еп18 — стандартизированные (бета-) коэффициенты регрессии
8ТАТ18Т1СА — компьютерная программа для
статистического анализа данных 8(а(1$Мса1 Те$1 — статистический критерий (тест) 81й. БешИоп — стандартное отклонение (сигма) 81й. Еггог — стандартная ошибка 81ер — шаг
81ер\м$е МеИшй — пошаговый метод 8(ш1и1и$ — стимулы
81ге$$ — стресс, в многомерном шкалировании 81иЬ-апй-Ваппег ТаЫев — таблицы сопряженности для двух и более признаков 8иЬ)ес1 — субъект
8и1уес1 \\'е1§Ш — индивидуальный вес 8иЬ$е( — подмножество 8ит — сумма
8ит оГ Вяиагм (88) — сумма квадратов
8иттагу — итог
8иррге$$ — скрыть
8утте1пс — симметричная
8уп1ах — командный файл в 8РЗЗ
ТаЫе — таблица
Те5( — статистический критерий Те8( Ргор. — ожидаемое (теоретическое) соотношение
Те«1 81аИ511С5 — результаты статистической проверки
Те5( \'а1ие — заданное (тестовое) значение Т1ей Капкз — связанные (повторяющиеся) ранги Нее (оГгапкв) — связи, повторы (рангов) То1а1 — итог (сумма)
ТЪнмГогш (УаЬез, Меавигез) — преобразование (значений, мер)
Тгее 0|а§гаш — древовидная диаграмма Т\УО-1аИе(1 (1\\о-К1с1ес1) — двусторонний критерий (для проверки двусторонних гипотез) 1Муапа1е (ргосейиге, арргоасЬ) — одномерный
(метод, подход) ЬГпгоШей — до вращения Ш$(ап(1аг(П2е(1 СосГПасШ — коэффициент регрессии (не стандартизированный) ШНе Ней оЬвегуаНоп — разъединять (различать) связанные (одинаковые) данные Шууе^Мей 1еа$1 8диаге8 — метод не взвешенных наименьших квадратов Уа1Ы п — число случаев, по которому были
проведены расчеты Уа1ие — значение Уаг — переменная (сокр.) УапаЫе — переменная (признак) УапаЫе 1л«1 — список переменный Уапапсе — дисперсия
Уаптах — метод варимакс (вращения факторов)
УегИса1 — вертикальная (ориентация) \Уе1вМ — вес
ХУПсохоп 81§пе(1-гапк (Ма1сЬей ран-8) 1ея1 —
критерий Т-Вилкоксона * ХУЦсохоп 1С81 — критерий Вилкоксона Шкз' ЬашЬйа — лямбда Вилкса \У11Ып — внутри
\УШ1т-Сгоир — внутригрупповой \УШп-8и1уес1 — внутри объектов (внутригрупповой) XI — хи-кнадрат критерий Уа1е8' соггес1ес! — с поправкой Йетса Уи1е'« С — Юла 0-коэффициент 2-всоге — г-значение
ПРЕДМЕТНЫЙ УКАЗАТЕЛЬ
А
абсолютная частота 31, 32 абсолютная шкала 27 агломерации последовательность 336 альтернативная статистическая гипотеза 95, 106
анализ главных компонент 254, 262
апостериорные (Ро${ Нос) сравнения
средних 197 априорная вероятность принадлежности
к классу 287 асимметричное распределение 35 асимметрия 46, 52
Б
бииарные меры различия профилей 311 биномиальный критерий 126 ближайшего соседа метод 334 Бокса М-тест 217,227
В
варимакс-вращение 265, 270, 275 вероятностная (стохастическая)связь 66 вероятность ошибки 1 рода 103 вероятность ошибки II рода 103 взаимодействие факторов (АМОУА) 202, 211
Вилкоксона Г-критерий 167, 176
Вилксалямбда 216,284,286 вклад фактора 261
внутригрупповой фактор (АМОУА) 186, 214
восстан овл е н н ая кор ре ля ц ионная
матрица 258 восстановленные коэффициенты корреляции 257, 258, 259 вращения аналитические способы 265 выборка 20, 51 выборка стандартизации 54 выборочное среднее 41 выбросы 42, 84
Г
генеральная совокупность 19, 51, 52 гистограмма накопленных частот 34 гистограмма распределения частот 34 главные компоненты 254 главных компонент анализ 254, 262 главных осей метод 262 гомогенности дисперсии критерий 163,
165,189, 190 города метрика 309 градиентная процедура 313 график собственных значений 259, 260 графики накопленных частот 60 графический способ проверки нормальности 59
групповая матрица координатобъектов
317,318 групповые центроиды 298
д
дальнего соседа метод 334 двусторонняя альтернатива (гипотеза) 106, 108, 142 дендрограмма 331,333 диаграмма рассеивания 66 дискриминантные переменные 283,284, 289
дискриминантные функции 283 дискриминантный анализ 238, 282 дискриминантный анализ пошаговый 288 дисперсии однородности (гомогенности)
критерий 163, 165,189, 190 дисперсионный анализ (АЫОУА) с повторными измерениями 216 дисперсионный анализ (АЫОУА) 185 дисперсия 44, 45 дистантная модель 238,299 дистанционная модель предпочтений 324
доверительная вероятность 105 допущения А1ЧОУА 188
Е
Евклидово расстояние 309 единичное нормальное распределение 52, 53
3
зависимая выборка 22,214 зависимая переменная 74,186,240 закон нормального распределения 51 знаков критерий 176,178 значения канонических функций 286,297 значимости уровень 97,98
И
идеальный объект 324 иерархические агломеративные методы 333
иерархический кластерный анализ 330 изменчивости мера 44 изменчивость 22, 35, 51 измерение 23 измерительная шкала 24 индивидуальные весовые коэффициенты 317
индивидуальный вес 303 индивидуальных весов матрица 318 индивидуальных различий многомерное
шкалирование 303, 305,317 интервальная шкала 26 интерпретация факторов 253 информативность компоненты 257 информативность (мощность) фактора 261 исходных данных таблица 30 Йетса поправка на непрерывность 136,138
К
Кайзера критерий 259, 270 каноническая ось 285 канонические коэффициенты стандартизированные 285,297 канонические функции 285 квадрат коэффициента корреляции 74 квантиль 43, 101 квантильные графики 59 квартиль 43
квартимакс-вращение 265 Кеттелла критерий отсеивания 259, 270 классификации метод 282 классификации многомерные методы 238 классификаций анализ 115,125 классификация методов статистического
вывода 112 классификация объектов 329 классификация с обучением 283 классифицирующая (зависимая) переменная 284 кластерный анализ 238, 329, 330, 347
корреляций 339,340
результатов социометрии 342
кластерного анализа методы 333 ковариата 188
количество проверяемых гипотез в
АЖ)УА 211 Колмогорова-Смирнова критерий
нормальности 60 компонентная нагрузка 257 компонентный анализ 256 компонентных нагрузок матрица 256 контраст 198 контрастов метод 197, 198 координатное описание субъектов 317 корреляции ранговые 77 корреляций сравнение 151 корреляционная матрица 156 корреляционная плеяда 157,159 корреляционный анализ 147 корреляционный граф 159 корреляция 72
коэффициент детерминации 72, 74,75, 191,207
коэффициентов корреляции г-преобра- зование Фишера 151
коэффициенты регрессии стандартные 243 коэффициенты регрессии 242, 267 Краскала-Уоллеса критерий 179 критерии числа факторов 259, 270 критерий Р-Фишера 163, 165, 192, 244, 284, 287
165
сии 163, 165,189, 190
Л
Ливена критерий 163, 165,189, 190 линейная стандартизация 56 линейная функция (связь) 65 линия регрессии 73 Лямбда-Вилкса 216,284,286
М
МакНимара критерий 140,142 максимального правдоподобия метод 263 Манна-Уитни (/-критерий 166,173 манхаттан (мера различия) 309 математическая идея АМОУА 188 математическая модель двухфакторного
АМОУА 203 математическое ожидание 41 матрица компонентных нагрузок 256
318
мера центральной тенденции 40 меры различия для бинарных переменных 311
262
анализа 246
(АМОУА) 226 многомерное шкалирование 238, 299, 347 многомерное шкалирование индивидуальных различий 303 многомерные методы 236
классификации 238
предсказания 238
226, 227
многомерный дисперсионный анализ
(МАМОУА) 284 многомерный подход (АМОУА) 216, 227 многофакторный АМОУА 186, 202, 210 множественного регрессионного анализа методы 246
множественного сравнения средних метод 197
множественной корреляции коэффициент 242, 244 множественные сравнения (АМОУА) 188, 197
множественный регрессионный анализ
238, 240, 284 мода 40, 42
модальная категория 42 модель с постоянными эффектами (АМОУА) 187
187
различий 305,317
А/-тест Бокса (Вох'8 М-Гей) 217, 227
Н
надежность связи 94 направленная альтернатива (гипотеза) 106 научная гипотеза 93 независимая выборка 22 независимая переменная 74, 186,240 нелинейная нормализация 57 нелинейная связь 88 нелинейная функция 65 неметрическая модель шкалирования 311 неметрическая шкала 24, 27 неметрический этап шкалирования 312 немонотонная связь 88 немонотонная функция 65 ненаправленная (двусторонняя) гипотеза
(альтернатива) 106, 108, 142 непараметрические методы статистического вывода 131 непосредственная оценка различий 306 номинативная шкала 24 номинативных данных анализ 114, 123 нормализация эмпирическая 57 нормальное распределение 35, 51, 52, 54 нормальности критерий Колмогорова-
Смирнова 60 нормальности распределения проверка 59 нормальный закон распределения 49, 50 нормы тестовые 55 нулевая (основная) статистическая гипотеза 95
О
обобщенный метод наименьших квадратов 263
обратный пошаговый метод 246 общая линейная модель (СЬМ) 189, 241 общности проблема 260 общность переменной 258, 259, 260, 261 объект 30
объект исследования 23 объем выборки 21 одиночной связи метод 334 одномерные критерии (АМОУА) 228 одномерный подход (АМОУА) 216 однородности дисперсии критерий 163,
165,189,190 односторонняя (направленная) альтернатива (гипотеза) 107, 108, 142 однофакторный АМОУА 186, 189 однофакторный дисперсионный анализ
Краскала-Уоллеса 179 ожидаемые (теоретические) частоты 131 описательные статистики 141 основная (нулевая) статистическая
гипотеза 95 основное уравнение факторного анализа 258
основные допущения АМОУА 188 остатков (ошибок) анализ 242 относительная частота 31, 32, 52 отрицательная (обратная) функция 65 оценка зависимой переменкой 242
-Ирода 103
П
параметрические методы сравнения двух
выборок 162 первичные описательные статистики 40 переменная 30
Пирсона г (коэффициент корреляции) 67, 148
Пирсона Хи-квадрат критерий 124, 131,
133, 136, 138, 141, 142 площадь под единичной нормальной
кривой 52 повторные измерения (АМОУА) 216 полигон распределения частот 34 полной связи метод 334 полнота факторизации 261 положительная (прямая) функция 65 попарное удаление значений 158 поправка на непрерывность Йетса 136,138 порядковая шкала 24, 28, 59, 269 последовательность агломерации 336 последовательность факторного анализа 268
постоянных эффектов модель (АМОУА) 187
построчное удаление значений 158 пошаговый дискриминантный анализ 288, 294
принадлежности к классу вероятность 287 принадлежность объекта к классу 287 принцип простой структуры (факторный
анализ) 271 проблема взаимодействия факторов (АМОУА) 203
проверка нормальности распределения 59 пропущенных значений проблема 158 простая структура факторов 265, 272 простой случайный отбор 20 профилей бинарные меры различия 311 профилей меры различия 308 процентиль 59, 43
прямой пошаговый метод регрессионного анализа 246
Р
равномерное распределение 35
различий матрица 333
различий метрика 301,306
различий оценка непосредственная 306
различий меры 306
размах 44
ранговая шкала 24
ранговые корреляции 77
рандомизированный отбор 20
распознавание образов 283
распределение асимметричное 35
регрессия 72
репертуарные решетки Келли 317 репрезентативность 20 решение статистическое 108
С
свободный член уравнения множественной регрессии 242 свойство 23, 52 связанные ранги 80 связь 66
сгруппированных частот таблица 32 серий (последовательности) анализ 117,142 серий критерий 142, 174 серия 142, 145
сигма (стандартное отклонение) 45, 51 симметричное распределение 35 след Пиллая (РШаРзТгасе) 216 случайный отбор 20
случайных эффектов модель (АМОУА) 187 собственное значение 257, 259
фактора 261
канонической функции 286
содержательный вывод 108 сопряженности таблица 36,141 Спирмена корреляция 77 сравнение двух дисперсий 162
среднее отклонение 51 среднее 41,42 средней связи метод 335 среднеквадратическое отклонение
(сигма) 45, 51 средний квадрат, М8 192 стандартизация 46 стандартизация линейная 56 стандартизированные канонические
коэффициенты 285, 297 стандартное отклонение (сигма) 45, 51 стандартные коэффициенты регрессии 243 статистика Р-включения и Р-удаления 288 статистики описательные 141 статистическая гипотеза 95 альтернативная 95, 106 направленная 107, 108, 142
ненаправленная (двусторонняя)
106, 108, 142
структурные многомерные методы 238 Стьюдента /-критерий 164 субъективные оценки различий 300 сумма квадратов, 88 191 сферичности тесты 216,228 «сырые» оценки 55
Т
таблиц сопряженности анализ 115,132 таблица исходных данных 30
частот 33 Тау Кендалла 78, 81, 154 теоретические (ожидаемые) частоты 131 теоретическое распределение 96,98 тест сферичности ковариационно-
дисперсионной матриц 216 тест сферичности остатков ковариационной матрицы 228 тестовые нормы (шкалы) 54, 55 толерантность 287,289 Торгерсона модель шкалирования 312 точный критерий Фишера 142
У
удаление значений попарное 158 удаление значений построчное 158 уравнение множественной регрессии
238, 240, 284 уравнение регрессии 73 уровень значимости 97, 98
Ф
фактор (в МЧОУА) 186
фактор (в факторном анализе) 252 факторная нагрузка 253, 259 факторная структура 258 факторного анализа методы 261
основное уравнение 258
последоватльность 268
факторные оценки 272 факторный анализ 238,251
дихотомических переменных 269
образов 262
факторных нагрузок матрица 258 факторов простая структура 265, 272 фи-коэффициент сопряженности 83 Фишера /'-критерий 163, 165, 192, 244, 284, 287
Фишера ^-преобразование 151 Фишера точный критерий 142 форма распределения признака 35 Фридмана Хи-квадрат критерий 182 фундаментальная факторная теорема 256 функциональная связь 65
X
характерность 260
хи-квадрат Пирсона 124, 131, 133,136, 138, 142
хи-квадрат Пирсона с поправкой Йетса 139
ц
центральная предельная теорема 96 центральной тенденции мера 40 центроид 285
Ч
частная корреляция 75, 150 частот распределение 51 частота абсолютная 31,32 частота относительная 31,32,52 частоты теоретические (ожидаемые) 131 частоты эмпирические (наблюдаемые) 57, 131
числа факторов проблема 259 числа шкал проблема 313 число степеней свободы 100, 192
Ш
Шеффе метод (сравнения средних) 197 шкала абсолютная 27
шкалирование индивидуальных различий 305, 317
Э
эксцесс 47, 52
эмпирическая нормализация 57
эмпирические (наблюдаемые) частоты 57 эпсилон-коррекция 216
АЫОУА многофакторный 210
А1ЧОУА однофакторный 186,189
АЫОУА с повторными измерениями 216
АЫОУА, дисперсионный анализ 185
РЯОХЗСАЬ 314
г-Пирсона 67, 148
г-Спирмена 74
г-Спирмена 77, 153
г-значение 57
преобразование Фишера 151 г-преобразование 46, 52, 57 г-шкала 46
ДОПОЛНИТЕЛЬНАЯ ЛИТЕРАТУРА
Математические методы
Айвазян С. А. и др. Прикладная статистика. Классификация и снижение размерности. М., 1989.
Анастази А. Психологическое тестирование: В 2 кн. Кн. 1. М., 1982.
Боровиков В. 81аи$1лса. Искусство анализа данных на компьютере: Для профессионалов. СПб., 2003.
Бурлачук Л. Ф., Морозов С. М. Словарь-справочник по психологической диагностике. СПб., 1999.
Гайда В. К., Захаров В. П. Психологическое тестирование: Учеб. пособие. Л., 1982.
ГлассДж., Стенли Дж. Статистические методы в педагогике и психологии. М., 1976.
Гмурман В. Е. Теория вероятностей и математическая статистика. М., 1997.
Гублер Е. В., ГенкинА. А. Применение непараметрических критериев статистики в медико-биологических исследованиях. Л., 1973.
Гусев А. Дисперсионный анализ в экспериментальной психологии: Учебное пособие для студентов факультетов психологии... М., 2000.
Гусев А. Н., Измайлов Ч. А., Михалевская М. Б. Измерение в психологии: общий психологический практикум. М., 1997.
Дружинин В. Н. Психодиагностика общих способностей. М., 1996.
Дэйвисон М. Многомерное шкалирование: методы наглядного представления данных. М., 1988.
Дюк В. А. Компьютерная психодиагностика. СПб., 1994.
ЗаксЛ. Статистическое оценивание. М., 1976.
Иберла К. Факторный анализ. М., 1980.
Ивантер Э. В., КоросовА. В. Основы биометрии. Петрозаводск, 1992.
Кендалл М., Стьюарт А. Статистические выводы и связи. М., 1973.
КричевецА. Н. Математика для психологов: Учебник /А. Н. Кричевец, Е. В. Ши- кин, А. Г. Дъячков / Под ред. А. Н. Кричевца. М., 2003.
Куликов Л. В. Психологическое исследование. СПб., 1995.
Лаак Я. тер Психодиагностика: проблемы содержания и методов. М., Воронеж, 1996.
Мельников В. М., Ямнольский Л. Т. Введение в экспериментальную психологию личности. М., 1985.
Митина О. В., Михайловская И. Б. Факторный анализ для психологов. М., 2001.
Общая психодиагностика / Под ред. А. А. Бодалева, В. В. Столина. М., 1987. Паповян С. С. Математические методы в социальной психологии. М., 1983. Рунион Р. Справочник по непараметрической статистике. М., 1982. Сидоренко Е. В. Методы математической обработки в психологии. СПб., 1996. Справочник по прикладной статистике. В 2-х т. / Под ред. Э. Ллойда, У. Ледермана,
Ю.Тюрина. М., 1989. Суходольский Г. В. Математическая психология. СПб., 1997. Суходольский Г. В. Основы математической статистики для психологов. СПб., 1998. Суходольский Г. В. Математические методы психологии. СПб., 2003. Тарасов С. Г. Основы применения математических методов в психологии. СПб., 1998.
Терехина А. Ю. Анализ данных методами многомерного шкалирования. М., 1986. Факторный, дискриминантный и кластерный анализ / Дж.-О. Ким, Ч. У. Мьюл-
лер,У. Р. Клеккаидр. М., 1989. Харман Г. Современный факторный анализ. М., 1972. Шмелев А. Г. Психодиагностика личностных черт. СПб., 2002.
Организация и планирование исследования
Кэмпбелл Д. Модели экспериментов в социальной психологи и прикладных иссле-
дованях. М., 1980. Мартин Д. Психологические эксперименты. СПб., 2002. Солсо Р. Л., МакЛин М. К. Экспериментальная психология. СПб., 2003.
Андрей Дмитриевич Наследов
МАТЕМАТИЧЕСКИЕ МЕТОДЫ ПСИХОЛОГИЧЕСКОГО ИССЛЕДОВАНИЯ Анализ и интерпретация данных
Учебное пособие
Главный редактор И. Авидон Заведующая редакцией Т. Тулупьева Технический редактор О. Колесниченко Художественный редактор П. Борозенец Директор Л. Янковский
Подписано в печать 19.07.2004. Формат 70X100'/16. Усл. печ. л. 31,6. Тираж 5000 экз. Заказ № 63.
Интернет-магазин: \\гуу\улп1егпашга.ги
ООО Издательство «Речь». 199178, Санкт-Петербург, ул. Шевченко, д. 3 (лит. "М"), пом. 1, тел. (812) 323-76-70, 323-90-63, тГо@гес11.5рЬ.ги, \у\у\у.гесИ.5рЪ.ги Представительство в Москве: тел.: (095) 502-67-07, гесЬ@опИпе.ги
Отпечатано с готовых диапозитивов в ФГУП «Печатный двор» Министерства РФ по делам печати, телерадиовещания и средств массовых коммуникаций. 197110, Санкт-Петербург, Чкаловский пр., 15.
Г'
Наследов Андрей Дмитриевич — кандидат психологических наук, доцент факультета психологии СПбГУ. Область научных и педагогических интересов: организация и методы психологического исследования, современные методы анализа данных, история и методология психологии. На факультете психологии СПбГУ преподает с 1990 года; читает курсы: «Математические методы в психологии», «История психологии», «Статистические методы и математические модели в психологии», «Дизайн психологического исследования».
Стиль книги выбран с учетом того, что математические методы обычно вызывают большие трудности при изучении. Необходимые для понимания математические основы даются скорее на неформальном уровне — без детального изложения математического обоснования и выводов формул. Введение математических терминов сопровождается простыми примерами, а теоретические и математические объяснения даются на элементарном уровне.
\
А. Д. Наследов
9785926802754
2 «Математическая психология» И. Гербарта появилась десятилетиями раньше, чем «экспериментальная психология» В. Вундта.
1 Цитируется по кн.: Корнилов К. Н. Учение о реакциях человека с психологической точки зрения («Реактология»), М., 1923. С. 3.
1 Кендалл М., Стьюарт А. Статистические выводы и связи. М., 1973. С. 681.
1. Таблица исходных данных. Может быть образована в среде 8Р88 двумя способами. А) Данные можно предварительно набрать в среде программы Ехсе1 (строки — испытуемые, столбцы — признаки). Затем путем простого копирования блока данных в таблице Ехсе1 перенести при помощи команды «вставка» (Ра«1...) этот блок данных в предварительно открытую пустую таблицу 8Р85 и сохранить ее. Б) Данные можно набирать сразу в программе 8Р88. Полезно затем каждой переменной присвоить имя, вместо принятого в 8Р85 по умолчанию ^аг0 001...). Начиная пользоваться программой 8Р88, убедитесь, что в качестве разделителя целой и дробной частей установлен единый символ для всех программ — точка (Панель управления > Языки и стандарты > Числа > Разделитель целой и дробной частей числа — установить точку)!
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Рис. 5.6. Распределение «сырых» оценок (поданным табл. 5.2)
Изложенные основы психодиагностики позволяют сформулировать математически обоснованные требования к тесту. Тестовая методика должна содержать:
1. Выбираем Апа1уге > Сепега1 Ыпеаг Мо<1е1 > Кереа1ей Меазигез...
1 См.: Факторный, дискриминантный и кластерный анализ / Дж.-О. Ким, Ч. У. Мьюллер, У. Р. Клеккаидр. М„ 1989. С. 64-65.
4. В том же окне нажимаем кнопку 8Ш1811С8... (Статистики...) и отмечаем 1№топа(е А1ЧОУА$ (Однофакторные А1ЧОУА) — для получения достоверности различия классов по каждой переменной в отдельности, по критерию /-Фишера. Нажимаем СопИпие.
5. Для уточнения результатов классификации нажимаем кнопку С1а8§Ну... (Классификация...) и отмечаем Рпог ргоЬаЬНШез: Сотрите оГ§гоир 81хе (Априорные вероятности: исходя из размера группы) вместо принятого по умолча-
1 Лященко С., НаследовА. Исследование предпочтений студентами учебных предметов// Психология, акмеология, педагогика — образовательной практике: к 150-летию кафедры педагогики (педагогики и педагогической психологии) и 35-летию ф-та психологии СПбГУ. СПб., 2001.
2 Выход есть: заведите себе «ручного» математика! Но учтите: а) на воле такие не водятся, и приручать его вам придется самостоятельно; б) по мере приручения все менее понятно, кто кого приручает...
3' Суходольский Г. В. Математические методы психологии. СПб., 2003. С. 242.
4 Некоторые издания по этой теме перечислены в разделе «Дополнительная литература» (Организация и планирование исследования).
5Научное познание Рис. 1. Соотношение обыденного и научного познания
формулируется так, чтобы ее можно было проверить по результатам измерения, то есть в форме описательной математической модели. Описательная математическая модель согласуется с доступной измерительной моделью. Далее модель измерения применяется к интересующим нас аспектам действительности для регистрации результатов наблюдения (как правило — в числовой форме). Результаты измерения обобщаются при помощи описательной математической модели — для представления результатов измерения в доступном для интерпретации виде. Мы обращаемся к здравому смыслу и интерпретируем результаты применения описательных математических моделей. Однако чаще мы этим не ограничиваемся и обосновываем достоверность результатов при помощи соответствующей модели статистического вывода.
Изложенная логика аргументации характерна для науки в целом, в любых ее отраслях, в том числе для психологии. И гуманитарная специфика психологии вовсе не означает принципиального отличия научного метода психологии от методов других наук. Однако такая специфика предмета накладывает свой отпечаток на особенности применения математических методов. Это проявляется, в частности, в применяемых моделях измерения, в том, каким образом мы фиксируем результаты наблюдения непосредственно не видимого и не измеримого (способностей, тревожности и т. д.). Специфика измерительных моделей сказывается на применяемых описательных моделях, а те, в свою очередь — и на моделях статистического вывода.
Иногда можно слышать утверждения, что научный подход с применением математических методов необходим для академических научных исследований, а в практической работе вполне достаточно здравого смысла. Да, практическая деятельность психолога — это прежде всего искусство применения практических методов. Но здравого смысла недостаточно для профессиональной работы. Профессионал отличается тем, что может обосновать свою точку зрения, скажем, проверить эффективность того или иного практического метода или состоятельность организационного решения. При этом он будет опираться на научно обоснованные аргументы, а не только на собственное субъективное мнение.
6 Цит. по: Справочник по прикладной статистике: В 2 т. / Под ред. Э. Ллойда, У. Ледермана. М., 1989. Т. 1. С. 270.
7 С более совершенными методами предсказания книга знакомит вас в части 3: «Многомерные методы...»
8 Представлений теоретических — в широком смысле слова, от получивших признание научных теорий до субъективных мнений. В последнем случае если гипотетические следствия окажутся состоятельными, то, кто знает, может быть родится новая научная теория.
9 Кендалл М., Стьюарт А. Статистические выводы и связи. С. 687; Гласс Дж., Стэнли Дж. Статистические методы в педагогике и психологии. С. 247.
10 В угоду критически настроенному научному сообществу, но к огорчению исследователя!
11 Солосо Р., МакЛин К. Экспериментальная психология. СПб., 2003. С. 142.
12 Справочник по прикладной статистике. В 2 т. / Под ред. Э. Ллойда, У. Ледермана, Ю. Тюрина. М„ 1989. С. 212.
13 Методы этого раздела заимствованы из: ГлассДж., Стенли Дж. Статистические методы в педагогике и психологии. М., 1977. С. 283—286.
14 В некоторых источниках по непонятным причинам для /--Пирсона и /--Спирмена приводят разные таблицы критических значений. В компьютерных программах (ЗРЗЗ, 8ТАТ13Т1СА) уровни значимости для одинаковых /--Пирсона и г-Спирмена всегда совпадают.
15 Суходольский Г. В. Основы математической статистики для психологов. СПб., 1998. С. 299-302.
16 Сравнение выборок по качественно определенному (номинативному) признаку мы относим к задачам анализа классификаций и таблиц сопряженности.
17 Перед чтением этой главы рекомендуется освежить в памяти материал главы 6 о корреляции и двумерной регрессии.
18 = 1
где Д, — часть дисперсии, обусловленная влиянием неучтенных факторов, или дисперсия ошибки предсказания.
Этот шаг следует выполнять тол ько на заключительном этапе проведения МРА, когда после предварительных проб определена окончательная модель регрессии.
19 После вращения сумма квадратов факторных нагрузок по столбцу не равна собственному значению фактора.
20 Во многих странах исследования выявили очень сходную структуру, состоящую из пяти факторов. Эти факторы достаточно полно передают основные значения прилагательных, с помощью которых люди описывают себя и других: экстраверсия, альтруизм, добросовестность, нейротизм, оригинальность. (См.: Лаак Я. тер. Психодиагностика: проблемы содержания и методов. М., 1996; Шмелев А. Г. Психодиагностика личностных черт. СПб., 2002.)
21 Подробное изложение математико-статистических идей метода можно найти в книге: Факторный, дискриминантный и кластерный анализ / Дж.-О. Ким, Ч. У. Мьюллер, У. Р. Клек- ка и др. М., 1989.
ПРИМЕР 17.1
Предположим, что, как и в примере для МРА, перед исследователем стоит задача предсказания успеваемости пяти абитуриентов по данным вступительных тестов (4 теста). Кроме того, его интересует, какие тесты, какдискриминантные переменные, обладают наибольшей предсказательной силой в отношении последующей успеваемости. В качестве исходных данных психолог имеет для каждого из 20 учащихся предыдущего набора 4 показателя тестирования. Кроме того, ему известно, к какой группе успешности принадлежит каждый из этих студентов: неуспевающих (0), средних (1) и отличников (2). В его
22 В открывшемся окне диалога переносим из левого в правое верхнее окно (УапаЫек) переменные, необходимые для шкалирования (шга, да, ка, Еа, тдз). Убеждаемся, что в поле 018{апсе8 (Расстояния) точкой отмечено Ба*а аге (Н$1апсе$ (Данные — расстояния), а нажав кнопку 8Ьаре... (Уточнить) убеждаемся, что матрица данных 8диаге вутте^пс (Симметричная квадратная). Нажимаем СопШие.
Примечание. Если бы исходные данные были типа «объект-признак», то необходимо было бы воспользоваться опцией Сгеа^е (Н8{апсе8 Ггот (Ыа (Создать расстояния поданным), нажать кнопку Меакиге... (Мера...), задать меру различий и уточнить: между объектами (Ве^ееп о^ес^к) или признаками (Ве^ееп уапаЫек) вычислять различия. Иногда в качестве исходных данных
56