Виды взаимосвязей между признаками. Переменные. Их виды Виды взаимосвязей между признаками

В основе построения современной экспериментальной психологии лежит формула К. Левина - поведение есть функция личности и ситуации:

B =f(P;S).

Необихевиористы ставят в формулу вместо Р (личность) О (организм), что бо­лее точно, если считать испытуемыми не только людей, но и животных, а личность редуцировать к организму.

Как бы то ни было, большинство специалистов по теории психологического экс­перимента, в частности МакГиган , считают, что в психологии существуют два типа законов :

1) «стимул-ответ»;

2) «организм-поведение*.

Первый тип законов обнаруживается в ходе экспериментального исследования, когда стимул (задача, ситуация) - это независимая переменная, а зависимая пере­менная - ответ испытуемого.

Второй тип законов является продуктом метода систематического наблюдения и измерения, поскольку свойствами организма управлять с помощью психологичес­ких средств нельзя.

Существуют ли «пересечения»? Разумеется. Ведь в психологическом экспери­менте зачастую учитывается влияние так называемых дополнительных переменных, большинство из которых является дифференциально-психологическими характери­стиками. Следовательно, есть смысл добавить в список и «системные» законы, опи­сывающие влияние ситуации на поведение личности, обладающей определенными свойствами. Но в психофизиологических и психофармакологических эксперимен­тах можно воздействовать на состояние организма, а в ходе формирующего экспери­мента - целенаправленно и необратимо изменять те или иные свойства личности.

В классическом психологическом поведенческом эксперименте устанавливает­ся функциональная зависимость вида

R = f(S) ,

где R - ответ, a S - ситуация (стимул, задача).

Переменная S систематически ва­рьируется, а детерминируемые ею изменения ответа испытуемого фиксируются. В ходе изучения проявляются условия, при которых испытуемый ведет себя тем или иным образом. Результат фиксируется в форме линейной или нелинейной зависи­мости.

Другой тип зависимостей символизируется как зависимость поведения от лич­ностных свойств или состояний организма испытуемого:

R = f(О) или R = f(Р).

Исследуется зависимость поведения испытуемого от того или иного состояния организма (болезни, усталости, уровня активации, фрустрации потребностей и т. д.) или от личностных свойств (тревожности, мотивации и т. д.). Исследования прово­дятся с участием групп людей, различающихся по данному признаку: свойству или актуальному состоянию.

Естественно, эти две строгие зависимости являются простейшими формами от­ношений между переменными. Возможны более сложные зависимости, устанавливаемые в конкретном эксперименте, в част­ности, факторные планы позволяют выявить зависимости вида R = f (S 1 , S 2), когда ответ испытуемого зависит от двух варьируемых параметров ситуации, а поведение является функцией состояния организма и среды.


Остановимся на формуле Левина . В об­щей форме она выражает идеал эксперимен­тальной психологии: возможность предска­зать поведение конкретной личности в опре­деленной ситуации. Переменная «личность», которая входит в состав этой формулы, врядли может рассматриваться лишь как «дополнительная». Традиция необихевиоризма предлагает использовать термин «промежу­точная» переменная. В последнее время за такими «переменными» - свойствами и состояниями личности - закрепился тер­мин «переменная-модератор», т. е. посредник.

Рассмотрим основные возможные варианты отношений между зависимыми пе­ременными.

Существует, как минимум, шесть видов, связи переменных .

Первый , он же простейший, - отсутствие зависимости , Графически он выражается в форме прямой, параллельной оси абсцисс на графике, где по оси абсцисс (X) отложены уровни независимой переменной. Зависимая переменная не чувствительна к изме­нению независимой (см. рис. 4.8).

Монотонно возрастающая зависимость наблюдается тогда, когда увеличению значений независимой переменной соответствует изменение зависимой перемен­ной (см. рис. 4.9).

Монотонно убывающая зависимость наблюдается, если увеличению значений независимой переменной соответствует уменьшение уровня независимой перемен­ной (см. рис. 4.10).

Нелинейная зависимость – U-образного типа обнаруживается в большинстве экс­периментов, в которых выявляются особенности психической регуляции поведения: (см. рис. 4.11).

Инвертированная U-образная зависимость получается в многочисленных экспе­риментальных и корреляционных исследованиях как в психологии личности, моти­вации, так и в социальной психологии (см. рис. 4.12).

Последний вариант зависимости обнаруживается не так часто, как предыду­щие, - сложная квазипериодическая зависимость уровня зависимой переменной от уровня независимой (см. рис. 4.13).

При выборе способа описания работает «принцип экономии». Любое простое описание лучше, чем комплексное, даже если они одинаково успешны. Поэтому ар­гументы, распространенные в отечественных научных дискуссиях типа «Все гораз­до сложнее на самом деле, чем представляет автор» по меньшей мере бессмыслен­ны. Тем более что никто не знает, как «на самом деле».

Так называемое «комплексное описание», «многомерное описание» есть зачас­тую просто попытка уйти от решения научной проблемы, способ маскировки лич­ной некомпетентности, которую хотят скрыть за путаницей корреляционных свя­зей и сложносоставными формулами, где все всему равняется.

Основные положения совпадают с требованиями к билету №43,увеличится лишь размерность таблицы и надо после раскрытия основных положений, сходных с билетом 43, -перечислить основные методики анализа связи между несколькими переменными- а именно- метод хи квадрат(билет 45), регрессионный анализ, корреляционный анализ, кластерный, анализ, сетевой анализ, факторный анализ.

45.Статистика хи-квадрат (х 2)

Статистический анализ полученных с помощью массового опроса данных, как и анализ наблюдений изучаемого явления или статисти­ческих данных, включает несколько уровней сложности и возможно­стей получения дополнительной (скрытой) информации. В социальных и политических исследованиях результат наблюде­ний, подтверждающий справедливость выдвинутой гипотезы, крайне редко выступает основанием для ее принятия как истинной, поскольку он может также сочетаться и с рядом других объяснительных гипотез.

Тест хи-квадрат используется для двухвходовых таблиц сопряжен­ности. Схема проведения:

1. Строится таблица сопряженности

2. Затем формулируют нулевую и альтернативную гипо­тезы. Нулевая гипотеза (H f) - утверждение, отрицающее зависимость между радами переменных. Альтернативная гипотеза (HJ - гипотеза о наличии связи между при­знаками.

3. Заполняется альтернатиная таблица по формуле: произведение соответ­ствующих маргинальных частот (значения строки и столбца) делят на общее число респондентов

4. Вычесление величины x-квадрат по формуле

Х 2 =Σ х (n-n 1) 2 /n 1

Уровень х-квадрат определяет вероятность отклонения исследуемого показателя.

46. Корреляционный анализ

Основные понятия корреляционного анализа

Выделяют несколько видов связи между переменными: Корреляционная зависимостьпредполагает взаимную согласован­ность изменений переменных величин, а также то, что эти изменения можно измерить однократно или многократно.

Функциональное воздействие предполагает, что изменения не­зависимой переменной сопровождаются все более ускоряющимися изменениями зависимой переменной. Функциональная зависимость - связь переменных, означающая, что изменение одной переменной оказывает воздействие на изменение другой, которая в свою очередь воздействует на первую переменную.

Корреляция - наличие статистической взаимосвязи признаков, когда каждому определенному значению одного признака X соответ­ствует определенное значение У.

Корреляционный анализ выясняет функциональную за­висимость между переменными величинами, которая характеризуется тем, что каждому значению одной из них соответствует вполне опреде- тенпое значение другой.



Различают парную и множественную корреляции. Парная корреля­ция характеризует тип, форму и плотность связи между двумя призна­ками, множественная - между несколькими.

Корреляционная зависимость возникает чаще всего там, где одно явление находится под воздействием большого числа факторов, дей­ствующих с разной силой, поэтому существуют специальные меры корреляционной связи, называемые коэффициентами корреляции.

Корреляционный анализ последовательно решает три практиче­ские задачи:

1) определение корреляционного поля и составление корреляци­онной таблицы;

2) вычисление выборочных корреляционных отношений или ко­эффициентов корреляции;

3) проверка статистической гипотезы значимости связи.

Коэффициент корреляции не содержит информации о том, явля­ется ли данная связь между ними причинно-следственной или сопут­ствующей.

Для установления корреляционной связи между двумя призна­ками необходимо доказать, что все другие переменные не оказывают воздействия на отношения двух переменных, являющихся предметом изучения.

Регрессионный анализ.

Регрессионный анализ - один из методов многомерного статисти­ческого анализа данных, объединяющий совокупность статистических приемов, предназначенных для изучения или моделирования связей между одной зависимой и несколькими (или одной) независимыми переменными.

Множественный регрессионный анализ – это метод установления зависимости одной переменной от двух или более независимых переменных. В то время как зависимая переменная (та переменная, которую Вы хотите предсказать) должна быть непрерывной (за исключением логистической регрессии), независимые переменные могут быть как прерывными, так и категориальными, такими как «пол» или «тип применяемого препарата». В случае категориальных независимых переменных необходимо будет создавать переменные «пустышки», а не использовать соответствующие значения.



Процедура:

возможно выполнение в 2 вариантах:

· стандарт­ном (когда одновременно учитываются все независимые переменные)

· пошаговом (прямом и обратном) вариантах.

С помощью прямого пошагового действия в регрессионном анализе последовательно включаются переменные - начиная с той, ко­торая наиболее тесно коррелирует с зависимой переменной. Процедура продолжается, пока включение новых независимых переменных обеспе­чивает прирост коэффициента множественной корреляции, тем самым определяется оптимальный максимальный набор переменных. При ис­пользовании обратного пошагового метода машина последовательно от­брасывает независимые переменные, которые наиболее слабо коррели­руют с зависимой переменной (т.е. обладают наименьшей объясняющей способностью), оставляя оптимальный минимум.

Современные статистические программы (например SPSS) позволяют рассчитывать не только различные варианты линейной регрессии, но и нелинейные регрессии. Однако при анализе данных, полученных с помощью опросов (и мас­совых, и экспертных), чаще всего используется модель линейной ре­грессии.

Согласно исследованию научных публикаций в наиболее престижных зарубежных журналах, посвященных социальным и поведенческим наукам (Ч.Теддли, М.Элайс, 2010), 77% всех социологических исследований проведены в рамках количественного подхода. Из них 71% является корреляционными исследованиями или исследованиями, посвященными изучению связей между социальными явлениями.

Самый простой вид корреляционных исследований - изучение парных взаимосвязей или совместной изменчивости двух переменных. Такого рода исследования пригодны для решения двух научных задач:

а) доказательства существования причинно-следственной связи между переменными (наличие связи является важным, но не единственным, условием причинно-следственной зависимости);

б) предсказания: в случае наличия связи между переменными можно с определенным уровнем точности предсказывать значения одной переменной, если нам известно значение другой.

Связь между двумя переменными есть в том случае, когда изменение категории одной переменной ведет к изменению распределения второй:

Легко заметить, что в зависимости от категории переменной "Удовлетворенность работой" переменная "Продуктивность труда" меняет свое распределение. Следовательно, мы можем сделать вывод о существовании связи между переменными.

Также из этого примера видно, что каждому из значений одной переменной отвечает несколько значений другой. Такие связи называются статистическими или вероятностными. В данном случае, связь между переменными не является абсолютной. В нашем случае это означает, что кроме удовлетворенности работой есть и другие факторы, влияющие на продуктивность труда.

В случае же, когда одному значению первой переменной соответствует лишь одно значение второй, говорят о функциональных связях. Вместе с тем, даже когда есть основания говорить о функциональной связи, невозможно на все 100% продемонстрировать ее в эмпирической действительности по двум причинам: а) из-за погрешности измерительных инструментов; б) из-за невозможности контроля всех условий окружающей среды, влияющих на эту связь. И поскольку в социальных науках ученые имеют дело именно с вероятностными связями, постольку ниже речь пойдет именно о них.

Парные связи владеют тремя характеристиками: силой, направлением и формой.

Сила показывает насколько согласованна изменчивость двух переменных. Сила связи может изменяться в диапазоне от 0 до +1 (если хотя бы одна из переменных относится к номинальной шкале) или от -1 до +1 (если обе переменные относятся, по крайней мере, к порядковой шкале). При этом 0 и близкие к ней величины говорят об отсутствии связи между переменными, а величины близкие к +1 (прямая связь) или -1 (обратная связь) - о сильной связи. Один из вариантов интерпретации связи, с точки зрения ее силы, выглядит следующим образом:

Все значения в таблице приведены в модуле, т.е. должны анализироваться безотносительно к знаку. Так, например, связь -0,67 и +0,67 являются одинаковыми по силе, но разными по направлению.

Сила связи определяется с помощью коэффициентов корреляции. К коэффициентам корреляции относятся, например, фи и V-крамера (номинальные переменные, мало категорий/табличный вид), Гамма (порядковые переменные, мало категорий/табличный вид), Кендалла и Спирмена (порядковые переменные, много категорий), Пирсона (метрические переменные, много категорий).

Направление говорит о характере взаимного изменения категорий переменных. Если с увеличением значений одной переменной значения другой переменной также увеличиваются, то связь является прямой (или положительной). Если же ситуация противоположная и увеличение значений одной переменной ведет к уменьшению значений второй, то связь обратная (или отрицательная).

Направление связи может иметь место только в тех случаях, когда речи идет о порядковых и/или метрических переменных, то есть тех переменных, значения которых можно упорядочить от меньших к большим или наоборот. Таким образом, если хотя бы одна переменная относится к номинальной шкале, то можно говорить только о силе связи и ее форме, но не о направлении.

Направление связи можно определить либо с помощью таблиц сопряженности (мало категорий), либо с помощью диаграммы рассеяния (много категорий), либо с помощью знака коэффициента корреляции (количество категорий переменных не имеет значения):

А. Определение направления связи с помощью таблицы сопряженности.

Б. Определение направления связи с помощью диаграммы рассеяния.

В. Определение направления связи с помощью коэффициентов корреляции.

Форма связи указывает на особенности совместной изменчивости двух переменных. В зависимости от того, к какой шкале относится переменная, форму связи можно проанализировать либо с помощью столбчатой диаграммы/таблицы сопряженности (если хотя бы одна переменная является номинальной), либо с помощью диаграммы рассеяния (для порядковых и метрических шкал).

Выделяют несколько видов связи между переменными.

· Корреляционная зависимость предполагает взаимную согласованность изменений переменных величин, а также то, что эти изменения можно измерить однократно или многократно (в данном случае говорят о плотности связи переменных, но не о причинно-следственных связях); например, в современном российском обществе чем выше возраст, тем ниже социальный статус человека; отдельные проявления геронтократии эту закономерность не нарушают



· Функциональное воздействие предполагает, что изменения независимой переменной сопровождаются все более ускоряющимися изменениями зависимой переменной (причинно-следственные связи фиксируют влияние независимой переменной на зависимую); например, чем более радикальными политическими взглядами обладает человек, тем в большей степени он не приемлет существующий политический режим; в то же время нельзя утверждать, что чем в большей степени человек негативно оценивает власть, тем более радикальными взглядами он обладает

· Функциональная зависимость - связь переменных, означающая, что изменение одной переменной оказывает воздействие на изменение другой, которая в свою очередь воздействует на первую переменную, т.е. это связи взаимодействия; например, информированность человека

о политике напрямую связана с интересом к ней; чем больше человек политикой интересуется, тем больше в ней разбирается. Связь может быть нелинейной и немонотонной

Каким бы в итоге ни оказался тип связи между переменными, необходимо убедиться в ее наличии в принципе. Корреляционный анализ применяется для выяснения взаимодействия и тенденций изменения характеристик изучаемого явления.

Корреляция - наличие статистической взаимосвязи признаков, когда каждому определенному значению одного признака X соответствует определенное значение Y (или комплекс значений У-ряда распределения). Корреляционный анализ выясняет функциональную зависимость между переменными величинами, которая характеризуется тем, что каждому значению одной из них соответствует вполне определенное значение другой. Однако корреляционный анализ не предполагает выявления каузальных связей, поэтому при интерпретации результатов формулировки типа «переменная х влияет на переменную у» или «переменная х зависит от переменной у» недопустимы. Различают парную и множественную корреляции. Парная корреляция

характеризует тип, форму и плотность связи между двумя признаками, множественная - между несколькими. Корреляционная зависимость возникает чаще всего там, где одно явление находится под воздействием большого числа факторов, действующих с разной силой, поэтому существуют специальные меры корреляционной связи, называемые коэффициентами корреляции. Коэффициенты (в статистике их общее количество исчисляется десятками) показывают степень взаимосвязи явлений (плотность корреляционной связи, иногда исследователи говорят об интенсивности связи) и характер этой связи (направленность). Связь может быть прямой и обратной. Например, чем старше избиратель, тем более активно он участвует в выборах. Чем выше уровень доходов людей, тем в меньшей степени они склонны участвовать в выборах в качестве избирателей (обратная связь). Чем выше коэффициент корреляции между двумя переменными, тем точнее можно предсказать значения одной из них по значениям другой. Характер связи также определяется в категориях «монотонная» (направление изменения одной переменной не меняется при изменении второй переменной) и «немонотонная» связь. Помимо оценки плотности и направленности связи необходимо учитывать надежность (достоверность) связи.

44 . Корреляционный анализ. Проблема ложной корреляции. Коэффициенты корреляции: виды и условия использования.

Корреляционный анализ применяется для выяснения взаимодействия и тенденций изменения характеристик изучаемого явления.

Первоначальной стадией его развития считается период 1870- 1880-х годов, а автором понятия «коэффициент корреляции» - Фрэнсис Гальтон. Наиболее серьезные разработки в области корреляционного анализа на рубеже XIX-XX вв. выполнил Карл Пирсон. Традиционно корреляционный анализ используется для проверки гипотезы о статистической зависимости двух или нескольких переменных. В качестве вспомогательного средства анализ корреляций можно использовать при проверке пригодности экспериментальных гипотез и для включения переменных в факторный и регрессионный анализ.

Корреляционный анализ осуществляется с помощью сравнения и сопоставления рядов распределения, построенных на основании группировок по различным признакам.

Корреляция - наличие статистической взаимосвязи признаков, когда каждому определенному значению одного признака X соответствует определенное значение Y (или комплекс значений У-ряда распределения). Корреляционный анализ выясняет функциональную зависимость между переменными величинами, которая характеризуется тем, что каждому значению одной из них соответствует вполне определенное значение другой. Однако корреляционный анализ не предполагает выявления каузальных связей, поэтому при интерпретации результатов формулировки типа «переменная х влияет на переменную у» или «переменная х зависит от переменной у» недопустимы. Различают парную и множественную корреляции. Парная корреляция характеризует тип, форму и плотность связи между двумя признаками, множественная - между несколькими. Корреляционная зависимость возникает чаще всего там, где одно явление находится под воздействием большого числа факторов, действующих с разной силой, поэтому существуют специальные меры корреляционной связи, называемые коэффициентами корреляции. Коэффициенты (в статистике их общее количество исчисляется десятками) показывают степень взаимосвязи явлений (плотность корреляционной связи, иногда исследователи говорят об интенсивности связи) и характер этой связи (направленность). Связь может быть прямой и обратной. Например, чем старше избиратель, тем более активно он участвует в выборах. Чем выше уровень доходов людей, тем в меньшей степени они склонны участвовать в выборах в качестве избирателей (обратная связь). Чем выше коэффициент корреляции между двумя переменными, тем точнее можно предсказать значения одной из них по значениям другой. Характер связи также определяется в категориях «монотонная» (направление изменения одной переменной не меняется при изменении второй переменной) и «немонотонная» связь. Помимо оценки плотности и направленности связи необходимо учитывать надежность (достоверность) связи.

Корреляционный анализ последовательно решает три практические задачи:

1) определение корреляционного поля и составление корреляционной (в данном случае это комбинированная) таблицы;

2) вычисление выборочных корреляционных отношений или коэффициентов корреляции;

3) проверка статистической гипотезы значимости связи.

Коэффициент корреляции не содержит информации о том, является ли данная связь между ними причинно-следственной или сопутствующей (порожденной общей причиной).

Для установления корреляционной связи между двумя признаками необходимо доказать, что все другие переменные не оказывают воздействия на отношения двух переменных, являющихся предметом изучения. В противном случае возникает ситуация ложной корреляции. Секрет возникновения ложной корреляции заключается в том, что у двух явлений, связь которых формально подкрепляется наличием статистической связи, есть общая причина, в равной степени влияющая на каждое из них.

Во многих случаях статистически фиксируемая связь между признаками может быть объяснена третьей переменной.

Для выяснения типа связи является перспективным представление данных в виде графика, который позволяет визуально оценить степень рассеяния значений переменных. Особое внимание следует обратить на наличие «выбросов» (экстремально большие или малые значения признака), показывающих существенные отклонения от линии регрессии - условной прямой, которая показывает характер связи между

признаками на графике. Для выяснения факторов, определяющих причинно-следственную связь между переменными, прибегают к пат-анализу. Чтобы избежать ошибки в ситуации ложной корреляции, используют анализ взаимосвязи двух переменных с помощью контрольного (опосредующего) фактора. Итак, корреляционный анализ позволяет отбросить несуществующие или несущественные связи.

Специально следует оговорить, что для получения достоверных данных необходимо обеспечить достаточно большое число наблюдений, поскольку необоснованно сокращая объем выборки, мы снижаем уровень надежности полученных выводов о статистических зависимостях. Следовательно, необходимы специальные знания статистических расчетов. Операции по расчету коэффициентов корреляции осуществляют программы PC, но необходимо хотя бы иметь представление об элементарных процедурах анализа.

Корреляционному анализу предшествует стадия расчета статистики х2- Но на основании полученного значения статистики х2 мы ничего не можем сказать о плотности связи анализируемых переменных.

Для решения такой задачи необходимо обратиться к коэффициентам корреляционной связи.

Различные коэффициенты корреляции могут принимать значения от - 1 до + 1 или от 0 до +1. Специально следует оговорить, что значения коэффициентов, которые принимаются как статистически значимые, значительно разнятся между собой для различных видов коэффициентов корреляции

качестве предварительного замечания отметим, что принято признавать «сверхсильной» связью показатели корреляции свыше |±0,8|, «сильной» - от |±0,6| до |±0,8|, «умеренной» - от |±0,4| до |±0,6|, «слабой » - от |±0,2| до |±0,4|, связь отсутствует при показателях коэффициентов корреляции до |±0,2|. Применительно к значению коэффициента корреляции, приближающемуся к +1, обычно используют обозначение «строгая положительная корреляция» (perfect positive correlation), а к коэффициенту корреляции, равному -1, - «строгая отрицательная корреляция» {perfect negative correlation). А. Бююль и П. Цёфель, а также А. С. Ахременко предлагают несколько иной вариант интерпретации: до |±0,2| - очень слабая корреляция, от |+0,2| до |±0,5| - слабая корреляция, от |+0,5| до 1+0,7| - средняя корреляция, от |±0,7| до |±0,9| - высокая корреляция, свыше |±0,9| - очень высокая корреляция. Отметим, что высокие значения корреляции в реальных политических исследованиях встречаются крайне редко. И действительной исследовательской удачей является обнаружение просто статистически значимого коэффициента корреляции.

Важным показателем оценки коэффициента корреляции является показатель уровня значимости. Для корреляционного анализа он, как и для статистики хи-квадрат, не должен превышать 0,05 (р < 0,05), т.е. вероятность ошибки - подмена устойчивой статистически обоснованной случайной связи - не превышает 5%. Показатель уровня значимости является расчетным, однако как для статистики х2, так и для корреляционного анализа этот показатель формально принимают за константу.

наблюдение

эксперимент

Целенаправленное, преднамеренное и специальным образом организованное восприятие, обусловленное задачей наблюдения и не требующее от него вмешательства путём создания специальных условий

проводимый в специальных условиях опыт для получения новых научных знаний посредством целенаправленного вмешательства исследователя в жизнедеятельность испытуемого. Это упорядоченное исследование, в ходе которого исследователь непосредственно изменяет некий фактор (или факторы), поддерживает остальные неизменными и наблюдает результаты систематических изменений.

организованное, целенаправленное, фиксируемое восприятие психических явлений с целью их изучения в определённых условиях (вики)

Роберт Вудвортс (R. S. Woodworth), опубликовавший свой классический учебник по экспериментальной психологии («Experimental psychology», 1938), определял эксперимент как упорядоченное исследование, в ходе которого исследователь непосредственно изменяет некий фактор (или факторы), поддерживает остальные неизменными и наблюдает результаты систематических изменений. Отличительной особенностью экспериментального метода он считал управление экспериментальным фактором, или, по терминологии Вудвортса, «независимой переменной», и отслеживание его влияния на наблюдаемое следствие, или «зависимую переменную». Целью экспериментатора считается сохранение постоянными всех условий, за исключением одного - независимой переменной.

описательный психологический исследовательский метод, заключающийся в целенаправленном и организованном восприятии и регистрации поведения изучаемого объекта. Наблюдением называется целенаправленное, организованное и определенным образом фиксируемое восприятие исследуемого объекта. При наблюдении явления изучаются непосредственно в тех условиях, в которых они протекают в действительной жизни.

Характерные признаки:

1. Сохранение естественности психических явлений

2. Наблюдение всегда должно быть напрпавленным

3. Фиксация результатов наблюдения

1. Моделирование явления и условий исследования (экспериментальная ситуация)

2. Активное воздействие исследователя на явление (варьирование переменных)

3. Измерение реакции испытуемого под воздействием эксперимента (или после воздействия)

4. Воспроизводимость результатов (возможность повторить эксперимент по использованным методикам)

Достоинства:

1. Богатство собирательных сведений

2. Сохранение естественности условий деятельности

3. Необязательное получения согласия испытуемого (но для дальнейшего использования данных например видеозаписи разрешение испытуемого необходимо)

1. Исследователь не ожидает случайного проявления интересующих его психологических процессов, а создает условия для их появления у испытуемого.

2. Исследователь может целенаправленно изменить условияили течение психических процессов

3. Обязателен строгий учёт условий протекания эксперимента (методика)

4. Эксперимент может быть проведен с большим количеством испытуемых, что позволяет устанавливать общие закономерности развития психических процессов.

Недостатки

1. Субъективность исследователя, проекция собственных личностных качеств на испытуемого

2. Невозможно вмешиваться в ход событий без искажения, исследователь не может контролировать ситуацию.

3. Значительные затраты времени

4. Причинно-следственные связи не отделены от условий.

1. Некоторая искусственность

2. Необходимость создания константных условий (воздействияпостоянными и одинаковыми для всех испытуемых на протяжении всего опыта дополнительными переменными)

3. Предполагает согласие испытуемого (не всегда, но часто)

4. Более трудоёмко или дорого (в зависимости от типа регистрации данных, разработка методики и пр.)

5. Часто требует мотивации испытуемого

6. Зависит от психофизического состояния испытуемого (которое не всегда близко к естественному)

7. Наличие опытных исследователей

Проблемыобласти исследования

· Субъект-субъектное отношение нарушает научные правила

· Психика обладает свойством спонтанности

· Психика слишком уникальна

· Психика - слишком сложный объект исследования

Сравнение

Вопрос остается открытым. Наблюдатель не знает ответа, имеет случайное представление

Вопрос становится гипотезой – предполагает существование какой-либо зависимости между факторами

В зависимости от контроля ситуации

Ситуация менее строгая

Ситуация четко определена, условия заранее запланированы

В зависимости от строгости регистрации действий испытуемого

Точная регистрации, приборы, бланки и т.д.

Свободное описание

В результате наблюдения исследователь может выдвинуть гипотезу (научное предположение) причинно-следственного характера и затем проверить её с помощью эксперимента.

Результаты эксперимента могут искажаться в силу ряда факторов - Артефактов исследования, Связанных с ожиданиями экспериментатора или испытуемых. Один из наиболее частых артефактов обусловлен Эффектом Пигмалиона (или эффектом Розенталя), Который выражается в том, что экспериментатор, глубоко убежденный в обоснованности выдвинутой им гипотезы, непроизвольно транслирует свои ожидания испытуемым и, посредством косвенного внушения или другого влияния, изменяет их поведение в желательном направлении. Влияние испытуемых на результаты эксперимента выражается в так называемом Эффекте Хоторна: Зная или угадывая гипотезу, принятую экспериментатором, испытуемый намеренно или непроизвольно начинает вести себя соответственно его ожиданиям.

Устранить (или минимизировать) эти артефакты помогает применение Метода слепого, Суть которого в том, что испытуемые удерживаются в неведении относительно целей исследования и принятых гипотез, а разделение испытуемых на экспериментальную и контрольную группы производится без ведома экспериментатора.

Вопрос 11. Переменные психологического эксперимента

В упрощённом примере независимую переменную можно рассматривать как некий релевантный стимул (St(r)), силу которого варьирует экспериментатор, в то время, как зависимая переменная - реакция (R) испытуемого, его психики (P) на воздействие этого релевантного стимула. Схематически это можно выразить следующим образом:

Однако, как правило, именно искомая стабильность всех условий, кроме независимой переменной, в психологическом эксперименте недостижима, так как практически всегда помимо этих двух переменных присутствуют и дополнительные переменные, систематические иррелевантные стимулы (St(1)) и случайные стимулы (St(2)), ведущие соответственно к систематическим и случайным ошибкам. Таким образом окончательное схематическое изображение экспериментального процесса выглядит так:


Следовательно, в эксперименте можно выделить три вида переменных:

  1. Независимая переменная
  2. Зависимая переменная
  3. Дополнительные переменные (или внешние переменные)

Итак, экспериментатор пытается установить функциональную зависимость между зависимой и независимой переменной, что выражается в функции R=f(St(r)), попытавшись при этом учесть систематическую ошибку, возникшую вследствие воздействия иррелевантных стимулов (примерами систематической ошибки можно назвать фазы Луны, время суток и др.). Для уменьшения вероятности воздействия случайных ошибок на результат исследователь стремится проводить серию опытов (примером случайной ошибки, может быть, например, усталость или же попавшая в глаз испытуемому соринка).

Переменная (П) – любая реальность, наблюдаемые изменения которой (по конкретным параметрам или показателям методики) могут быть зафиксированы и измерены в какой-либо шкале.

Зависимая переменная (ЗП) – «отклик», или измеряемая в эксперименте переменная, изменения которой причинно обусловлены действием независимой переменной (НП). В психологическом исследовании представлена показателями деятельности испытуемого, любыми формами оценки его субъективных суждений и отчетов, психофизиологическими параметрами и т.д. О – от Observation – фиксируемый, т.е. наблюдаемый и измеряемый показатель, выступающий в качестве ЗП. Используется также термин «измеренная переменная»

Независимая переменная (НП) – экспериментальное воздействие или экспериментальный фактор (Х-воздействие) – управляемая, т.е. активно изменяемая исследователем переменная, другими словами – функционально контролируемая переменная; представлена на двух или более уровнях. В экспериментальной гипотезе понимается в качестве причинно-действующего фактора.

Двухфакторные переменные

P(L 1 ,L 2);P(L 1 ,S 1); P(S 1 ,S 2);

Обученность зависит от темперамента (L ) и метода обучения (S )

Методы обучения

холерик

сангвиник

флегматик

меланхолик

традиционное

проблемное

программируемое

Получаем 12 выборок

Виды связи между зависимыми и независимыми переменными:

Закон Вебера-Фехнера

Г.Т.Фехнер () математически обработал результаты исследований сформулировал «основной психофизический закон», по которому сила ощущения p пропорциональна логарифму интенсивности раздражителя S :


где S 0 - граничное значение интенсивности раздражителя: если S < S 0 , раздражитель совсем не ощущается; p 0 - граничное значение интенсивности ощущения
Так, люстра в которой 8 лампочек, кажется нам настолько же ярче люстры из 4-х лампочек, насколько люстра из 4-х лампочек ярче люстры из 2-х лампочек. То есть, количество лампочек должно увеличиваться в разы, чтобы нам казалось, что прирост яркости постоянен. И наоборот, если прирост яркости постоянен, нам будет казаться, что он уменьшается. Например, если добавить одну лампочку к люстре из 12 лампочек, то мы практически не заметим прироста яркости. В то же время, одна лампочка, добавленная к люстре из двух лампочек, даёт значительный кажущийся прирост яркости.

  1. Монотонно убывающая зависимость

Закон забывания Эббингауза

Кривая забывания или кривая Эббингауза была получена вследствие экспериментального изучения памяти немецким психологом Германом Эббингаузом в 1885 год -образного типа.

Кривая Гаусса

Нормальное Распределение (кривая Гаусса)

Симметричная параболическая кривая, иногда возникающая при изображении серии результатов на частотном графике. Многие переменные образуют нормальное распределение, когда измерения проводятся в целой популяции. Считается, что рост человека и коэффициент умственного развития подчиняются принципу нормального распределения при достаточно большом количестве участников. На кривой Гаусса большинство результатов концентрируется вокруг центра, а наиболее высокие и низкие результаты встречаются гораздо реже. Эти «хвосты» нормального распределения вытягиваются в обоих направлениях вдоль оси абсцисс и теоретически никогда не соприкасаются с нею.

(Приложение к вопросу 4)

Типы переменных по Дружинину:

1. Характеристики знаний

1)Стимул и материал заданий (устная форма, письменная)

2)Тип ответа испытуемого (письменно, устно)

3)Шкала оценивания

2. Особенности ситуации

1)Физические параметры (освещенность, температура воздуха)

2)Социально-психологические (один, с группой, один на один с исследователем)

3) Особенности общения и взаимовоздействия испытуемого и экспериментатора

Классификация Кэмбелла:

1. Управляемые

2. Потенциально-управляемые (экспериментатор не изменяет условия исходя из каких-либо причин, например этических, хотя мог бы это сделать)

3.Относительно постоянные аспекты окружения (условия жизни, социальные условия, деревня, город, детсад, детдом)

4.Органические переменные (пол, возраст, зрение, физическое развитие)

5.Тестируемые или предварительно измеряемые переменные (то, что можно получить с помощью психотестов и др. методик)

Формула Курта Левина

P =f (L ,S )

Где Р – поведение, F – функция (взаимосвязь),L – внутренних причин, S – внешних причин

Нулевой называется корреляция при отсутствии связи переменных. В психологии практически нет примеров строго линейных связей (положительных или отрицательных). Большинство связей - нелинейные. Классический притер нелинейной зависимости - закон Иеркса-Додсона: возрастание мотивации первоначально повышает эффективность научения, а затем наступает снижение продуктивности (эффект «перемотивации»). Другим примером является связь между уровнем мотивации достижений и выбором задач различной трудности. Лица, мотивированные надеждой на успех, предпочитают задания среднего диапазона трдности - частота выборов на шкале трудности описывается колоколообразно кривой. Математическую теорию линейных корреляций разработал Пирсон. Ее основания и приложения излагаются в соответствующих учебниках и справочниках по математической статистике. Напомним, что коэффициент линейной корреляции Пирсона r варьируется от -1 до +1. Он вычисляется путем нормирования ковариации переменных на произведение их среднеквадратических отклонений. Значимость коэффициента корреляции зависит от принятого уровня значимость, но и от величины выборки. Чем больше модуль коэффициента корреляции, тем ближе связь переменных к линейной функциональной зависимости.


Рис. 5.17. Примеры распределений испытуемых в пространстве двух признаков а) строгая положительная корреляция, б) сильная положительная корреляция, в) слабая положительная корреляция, г) нулевая корреляция, д) отрицательная корреляция, е) строгая отрицательная корреляция, ж) нелинейная корреляция, з) нелинейная корреляция

Теоретическая валидизация в социологическом исследовании: Методология и методы

Анализ парных связей

Описание взаимосвязей между явлениями и процессами - отдельная тема. Поэтому предлагаю поговорить о ней более подробно.

0 Нажми, если пригодилось =ъ

Согласно исследованию научных публикаций в наиболее престижных зарубежных журналах, посвященных социальным и поведенческим наукам (Ч.Теддли, М.Элайс, 2010), 77% всех социологических исследований проведены в рамках количественного подхода. Из них 71% является корреляционными исследованиями или исследованиями, посвященными изучению связей между социальными явлениями.
Самый простой вид корреляционных исследований - изучение парных взаимосвязей или совместной изменчивости двух переменных. Такого рода исследования пригодны для решения двух научных задач:

а) доказательства существования причинно-следственной связи между переменными (наличие связи является важным, но не единственным, условием причинно-следственной зависимости); б) предсказания: в случае наличия связи между переменными можно с определенным уровнем точности предсказывать значения одной переменной, если нам известно значение другой.
Связь между двумя переменными есть в том случае, когда изменение категории одной переменной ведет к изменению распределения второй:

Продуктивность труда

Удовлетворенность работой

Более удобный для анализа вид таблица примет, если мы рассчитаем процентные величины по каждому из столбцов:

Продуктивность труда

Удовлетворенность работой

Легко заметить, что в зависимости от категории переменной "Удовлетворенность работой" переменная "Продуктивность труда" меняет свое распределение. Следовательно, мы можем сделать вывод о существовании связи между переменными.
Также из этого примера видно, что каждому из значений одной переменной отвечает несколько значений другой. Такие связи называются статистическими или вероятностными. В данном случае, связь между переменными не является абсолютной. В нашем случае это означает, что кроме удовлетворенности работой есть и другие факторы, влияющие на продуктивность труда.
В случае же, когда одному значению первой переменной соответствует лишь одно значение второй, говорят о функциональных связях. Вместе с тем, даже когда есть основания говорить о функциональной связи, невозможно на все 100% продемонстрировать ее в эмпирической действительности по двум причинам: а) из-за погрешности измерительных инструментов; б) из-за невозможности контроля всех условий окружающей среды, влияющих на эту связь. И поскольку в социальных науках ученые имеют дело именно с вероятностными связями, постольку ниже речь пойдет именно о них.
Парные связи владеют тремя характеристиками: силой, направлением и формой.
Сила показывает насколько согласованна изменчивость двух переменных. Сила связи может изменяться в диапазоне от 0 до +1 (если хотя бы одна из переменных относится к номинальной шкале) или от -1 до +1 (если обе переменные относятся, по крайней мере, к порядковой шкале). При этом 0 и близкие к ней величины говорят об отсутствии связи между переменными, а величины близкие к +1 (прямая связь) или -1 (обратная связь) - о сильной связи. Один из вариантов интерпретации связи, с точки зрения ее силы, выглядит следующим образом:

Все значения в таблице приведены в модуле, т.е. должны анализироваться безотносительно к знаку. Так, например, связь -0,67 и +0,67 являются одинаковыми по силе, но разными по направлению.
Сила связи определяется с помощью коэффициентов корреляции. К коэффициентам корреляции относятся, например, фи и V-крамера (номинальные переменные, мало категорий/табличный вид), Гамма (порядковые переменные, мало категорий/табличный вид), Кендалла и Спирмена (порядковые переменные, много категорий), Пирсона (метрические переменные, много категорий).
Направление говорит о характере взаимного изменения категорий переменных. Если с увеличением значений одной переменной значения другой переменной также увеличиваются, то связь является прямой (или положительной). Если же ситуация противоположная и увеличение значений одной переменной ведет к уменьшению значений второй, то связь обратная (или отрицательная).
Направление связи может иметь место только в тех случаях, когда речи идет о порядковых и/или метрических переменных, то есть тех переменных, значения которых можно упорядочить от меньших к большим или наоборот. Таким образом, если хотя бы одна переменная относится к номинальной шкале, то можно говорить только о силе связи и ее форме, но не о направлении.

Направление связи можно определить либо с помощью таблиц сопряженности (мало категорий), либо с помощью диаграммы рассеяния (много категорий), либо с помощью знака коэффициента корреляции (количество категорий переменных не имеет значения):

Пример положительной связи

2-я перем-я

1-я перем-я

Пример отрицательной связи

2-я перем-я

1-я перем-я

Для правильной интерпретации связи с помощью таблиц необходимо их правильное оформление. Так, в нашем случае, категория А является наименьшим значением в случае обоих переменных, а категория С - наибольшим.

В данной диаграмме представлена взаимосвязь между количеством усилий, которые прикладывают студенты в процессе учебы (10-бальная порядковая шкала, ось Х), и успешностью их учебы в бакалаврате (среднее значение успешности сдачи сессий за 4 года обучения, ось Y). Поскольку нижний левый угол соответствует малым значениям обоих переменных, а верхний правый - большим, постольку диаграмма свидетельствует о положительной взаимосвязи между переменными. Думаю, вы представляете, как бы выглядела диаграмма рассеяния в случае отрицательной взаимосвязи.


В результате подсчета коэффициент корреляции равен либо положительному, либо отрицательному значению, что само по себе говорит о его направлении.
Несмотря на то, что значения коэффициента корреляции достаточно для получения основной информации про связь между переменными, его вычисление принято предварять построением таблицы или диаграммы рассеяния, которые необходимы для получения дополнительной информации, в частности - про форму связи.

Форма связи указывает на особенности совместной изменчивости двух переменных. В зависимости от того, к какой шкале относится переменная, форму связи можно проанализировать либо с помощью столбчатой диаграммы/таблицы сопряженности (если хотя бы одна переменная является номинальной), либо с помощью диаграммы рассеяния (для порядковых и метрических шкал).
Обратимся к примеру. В одном из своих исследования, единицами анализа которого выступили две кафедры разных вузов, я установил, что сила связи между переменными равна 0,83 в обоих случаях (в качестве переменных выступили тип студента и успешность сдачи последней сессии). Таким образом, сила и направление связи были одинаковы для обоих вузов. В свою очередь форма связи показала важные отличия (нажмите на график для увеличения):


Различия в форме распределения очевидны. Судя по всему, на первой кафедре значительно легче учиться, чем на второй. На это, в частности, указывает количество студентов, сдавших сессию на отлично.
Диаграммы рассеяния дают более ценную в аналитическом смысле информацию - кроме сравнения различных единиц анализа, они позволяют оценить отклонение связи от линейности. Линейность является важным условием эффективного применения коэффициентов корреляции и многих других статистических методов. Она наблюдается в том случае, когда каждое новое увеличение значений одной из переменных на единицу ведет к увеличению значений другой переменной на одинаковую или приблизительно одинаковую величину. Так, для приведенной ранее диаграммы рассеяния, увеличение значения 10-бальной шкалы на единицу ведет к увеличению успешности студента на величину близкую к 0,2.
Когда связь между переменными достаточно близка к идеальной линейной модели, коэффициенты корреляции адекватно отображают силу связи и ее направление (в случае представленной ранее диаграммы рассеяния, сила связи равна 0,93). В противном случае (т.е. в случае нелинейных связей) необходимо использовать специальные методы анализа данных. Примером диаграммы, демонстрирующей криволинейную связь, может служить следующий:


Такая форма связи может быть, например, между тревожностью студента и успешностью сдачи экзамена, когда как чрезмерно низкая, так и чрезмерно высокая тревожность приводят к снижению успешности.
Подводя итог, хочется отметить один важный момент: анализ связи с точки зрения ее силы, направления и формы - это только первый шаг анализа парных связей. После того, как мы определили что взаимосвязь представляет научный или практический интерес, необходимо проверить ее на статистическую значимость, так как наличие связи в выборке еще не означает ее наличие в генеральной совокупности. Такого рода задачи решаются с помощью методов статистического вывода, специфика которых рассмотрена .