Инженерная психология и ее эволюция

В силу их значительного и продолжающегося влияния на когнитивный подход, нам следует хотя бы кратко остановиться здесь на особенностях и эволюции исследований «человеческого фактора» {human factor engineering), получивших в Западной Европе и СССР название инженерной психологии. Появление этой области исследований было вызвано целым рядом случаев отказа человеко-машинных систем, произошедших по вине человека. Один из наиболее драматических, хотя и малоизвестных эпизодов случился в декабре 1941 года на американской военно-морской базе Перл-Харбор, когда инженеры, обслуживавшие один из первых образцов только что поступивших на вооружение радиолокаторов, отчетливо увидели на экране отраженные от приближающихся японских самолетов сигналы, но просто не поверили, что такое количество сигналов возможно, и решили отправить аппаратуру на ремонт вместо того, чтобы сообщить в штаб флота о возможном нападении.

Потребовалось целое десятилетие, чтобы научиться аккуратно описывать подобные ситуации. Для этого инженерными психологами наряду с теорией информации стала использоваться заимствованная из радиотехники и психофизики теория обнаружения сигнала (Wald, 1950). Благодаря ряду допущений, эта теория позволила описать работу оператора в задачах на обнаружение с помощью всего лишь двух параметров: чувствительности (а») и критерия (?). Если первый параметр описывает сенсорные возможности различения сигнала на фоне шума, то второй, как мы сказали бы сегодня, связан именно с когнитивными переменными: представлением о вероятности появления сигнала, а также оценкой относительной «цены» последствий двух возможных и неизбежных в ситуации обнаружения ошибок — пропуска сигнала и ложных тревог. На основании этих когнитивных переменных формируется готовность оператора при прочих равных условиях подтверждать наличие сигнала (низкий, или либеральный критерий) либо воздерживаться от такого подтверждения (высокий, или консервативный критерий). С формальной точки зрения, именно завышенное положение критерия помешало операторам в Перл-Харборе подтвердить приближение воздушных целей.

На рис. 2.1 показаны два идеализированных примера ситуации обна ружения сигнала для простейшего случая, при котором появление сигна ла не меняет разброса значений распределения шума, а просто сдвигает это распределение вправо по оси величин регистрируемой в сенсорных каналах активности. Распределение шума (аналог спонтанной сенсорной активности) предполагается нормальным и стандартным, так что его сред нее равно нулю, а стандартное отклонение — единице. Верхний график описывает ситуацию обнаружения слабого сигнала, сдвигающего рас пределение шума лишь на 0,5 его стандартного отклонения. Величина 0,5 и есть значение параметра чувствительности, обычно обозначаемого как d’ (произносится «дэ штрих»). Нижний график иллюстрирует обнаруже- 1. Примеры использования аппарата теории обнаружения сигнала для описания ситуаций обнаружения слабого (А) и сильного (Б) сигналов на фоне шума.

ние более мощного сигнала. Расстояние между распределениями и, следовательно, чувствительность здесь больше: d’ = 1,5. На обоих графиках также приведены по два возможных значения параметра критерия выбора ответа, ? («бета»). Оператор, принимающий более низкий из этих двух критериев (? = 0,0), будет сообщать о появлении сигнала всякий раз, когда величина сенсорной активности превышает среднее для распределения шума значение. Критерий ? = 2,0 означает, что о присутствии сигнала будет сообщаться, если величина сенсорной активности превысит два стандартных отклонения распределения шума.

Лейтмотивом множества исследований, проведенных с использованием аппарата теории обнаружения сигнала, стало представление о субоптимальности решений человека в ситуациях обнаружения. Особенно проблематичным оказалось постепенное ухудшение результатов обнаружения с увеличением времени наблюдения. Это ухудшение обычно состоит в ужесточении критерия принятия решений, что ведет к уменьшению числа ложных тревог, но чревато также и все более вероятными ошибками пропуска сигнала. Особенно яркими примерами этого явились сбои в обнаружении воздушных целей при охране наиболее важных государственных объектов системами противовоздушной обороны (ПВО) СССР и США в 1980-е годы. Так, в 1987 году немецкий летчик-любитель Маттиас Руст пересек со стороны Финляндии советскую границу, незамеченным долетел до Москвы и приземлился на Красной площади. Некоторое время спустя похожий инцидент произошел и в США, где недовольный налоговой политикой правительства фермер, захватив охотничье ружье, беспрепятственно долетел до центра Вашингтона, но разбился при попытке посадить свой самолет в саду Белого Дома. В обоих случаях операторы ПВО были «обезоружены» многолетним ожиданием вражеского нападения: стремясь избежать ложных тревог, они постепенно ужесточали критерии и в конце концов практически перестали замечать потенциально опасные цели.

О субоптимальности работы человека-оператора также говорили данные, собранные на основе экспертных оценок и представляемые в инженерной психологии в виде так называемых «МАВА—МAВА таблиц». Эти таблицы сравнивают между собой области деятельности и отдельные задачи, в которых человек оказывается лучше машины (Men-are-better-at) или, напротив, машина лучше человека (Machines-are-better-at). Так, задачи по обнаружению сигнала в силу колебаний внимания и отмеченной тенденции к завышению критерия принятия решений человеком лучше было бы доверить машине. С другой стороны, запоминание больших массивов информации и узнавание изображений первоначально считалось одной из областей, в которых человек был эффективнее машины. Разумеется, по мере развития компьютерных технологий количество таких областей стало постепенно сокращаться. Лишь наиболее сложные задачи, требующие глобальной оценки ситуации и выработки новых решений, причем часто на основании неполной информации, пока что прочно остаются в компетентности человека2.

2 Качество принимаемых человеком решений резко снижается в условиях стресса, вызываемого в первую очередь недостатком времени. Поэтому, например, в современной ядерной энергетике предпринимаются специальные меры для того, чтобы в течение 10— 20 минут фиксировать развитие событий, не давая человеку возможности реализовать слишком поспешные решения. Подобные задержки «на обдумывание», к сожалению, невозможны в работе летчика или водителя, где действовать часто приходится в интерва лах времени порядка долей секунды (за 1 секунду автомобиль, движущийся со скоростью 60 км/час, проезжает около 17м). К компетенции человека продолжают и, безусловно, будут продолжать относиться задачи по принятию решения в условиях многокатегориального выбора. В отличие от рассмотренной задачи обнаружения сигнала, где основания для решения могут быть представлены в виде одной-един-ственной переменной, в подобных задачах существует несколько качественно различных систем критериев и несколько (обычно более двух) альтернативных решений. Специфически человеческим звеном здесь является прежде всего оценка относительной важности (весовых коэффициентов) различных критериев. Такая оценка всегда довольно субъективна и не может быть сведена к одному критерию, даже такому существенному, как критерий стоимости. Например, если речь идет о выборе проекта нового предприятия, то наряду с критерием стоимости строительства (возможно, в сочетании с ожидаемыми доходами — критерий cost/ benefit) важную роль в том или ином контексте могут играть также и другие критерии, такие как критерии престижности или экологической безопасности. Сравнительную оценку важности критериев в каждом конкретном случае может дать только лицо (группа лиц), принимающее решение.

Помимо самой оценки специфическая сложность задач многокритериального выбора состоит в том, что «при их рассмотрении все доводы «за» и «против» не присутствуют в уме одновременно; иногда присутствует одна часть, в другое время — иная, причем первая исчезает из вида. Следовательно, различные цели или склонности по очереди берут «верх» и появляется неопределенность, которая озадачивает и мучает нас»3.

В качестве простейшей исчерпывающей процедуры получения весовых коэффициентов отдельных критериев и их агрегации в общую оценку альтернатив в литературе по методам поддержки принятия решений (Ларичев, 2002) рекомендуется следующая последовательность шагов:

1. Упорядочить критерии по важности.

2. Присвоить наиболее важному критерию оценку 100 баллов и, ис ходя из попарного отношения критериев по важности, дать в бал лах оценку каждому из них.

3. Сложить полученные баллы, а затем произвести нормировку кри териев (вычислить их весовые коэффициенты), разделив присво енные баллы на сумму весов.

4. Оценить значение каждой альтернативы по каждому из критери ев в отдельности по шкале от 0 до 100 баллов.

5. Определить общую оценку каждой альтернативы, используя фор мулу взвешенной суммы баллов (то есть просуммировать оценки данной альтернативы по всем критерием с учетом весовых коэф фициентов последних).

3 Эта цитата взята из письма Бенджамина Франклина, датированного сентябрем 1772 года. Франклин рекомендует далее записывать аргументы «за» и «против» на левой и правой стороне листа: «Когда я имею все это в поле зрения, я пытаюсь оценить их веса; если я найду два, каждый на другой стороне, которые кажутся мне равными, я их вычеркну… Если я считаю, что некоторые два довода «за» равны трем доводам «против», я вычеркиваю все пять; продолжая таким образом, я нахожу со временем, где находится баланс». Эти соображения можно считать эскизом современных компьютерных программ, поддерживающих процессы принятия решений (см. 8.4.2). Проблемы данной области связаны с нетранзитивным и нелинейным характером человеческих предпочтений, накладывающим ограни-100 чения на математические операции с балльными оценками (см. Ларичев, 2002).

6. Выбрать в качестве лучшей альтернативу, получившую наибольшую общую оценку.

Развернувшиеся во второй половине 20-го века работы по автоматизации отдельных функций и областей деятельности человека в целом проходили под лозунгом его освобождения от тяжелых и несвойственных ему сенсомоторных задач. Предполагалось, что за человеком-оператором постепенно останутся только функции когнитивного контроля за работой технических систем. С развитием информатики, электроники и когнитивных исследований стали создаваться системы относительно полного технического контроля и исполнения действий (такие как Flight Management Systems, используемые в военной и гражданской авиации для автоматического управления основными режимами полета). Постоянное увеличение степени сложности техники требовало от человека-пользователя сопоставимых, все более серьезных усилий по обучению и пониманию работы систем. Одновременно, из-за технических и финансовых ограничений автоматизации часто подвергались относительно изолированные фрагменты деятельности.

Результаты подобной фрагментарной замены человека компьютерными системами часто оказывались неудовлетворительными. В этих полуавтоматизированных системах скорее сам человек оказался под контролем автоматов, чем наоборот. Известный отечественный инженерный психолог Б.Ф. Ломов (например, Ломов, 1966) еще в начале 1960-х годов предупреждал об опасности такого развития, выдвинув вместе со своими коллегами принцип «активного оператора». Главным недостатком, или, по словам современной английской исследовательницы Лизанн Бэйнб-ридж, иронией автоматизации стало сегодня то, что оператору или, например, летчику временами приходится действовать в еще более экстремальном диапазоне нагрузок, чем прежде. Относительно легкие задачи упростились за счет их автоматизации, тогда как трудные задачи стали более сложными в силу усложнения самих человеко-машинных систем, а также из-за того, что решать их приходится внезапно и из состояния недонагрузки. При внезапных повышенных нагрузках в условиях жестких временных ограничений возникает состояние острого стресса, меняющее протекание практически всех познавательных процессов. Стресс, в частности, ведет к эффекту так называемого туннельного зрения — резкому ограничению размеров функционального поля зрения и фиксации внимания на отдельных деталях, а не на сцене в целом (см. 4.2.2 и 9.4.3).

Центральной проблемой сегодня становится выравнивание этого дисбаланса, то есть избирательная поддержка (вплоть до полной замены4)

4 Речь идет о временной передаче управления автоматам. Примером могут служить современные системы предотвращения столкновения с земной поверхностью (GCAS — Ground Collision Avoidance System), используемые в военной авиации. Эти системы оцени вают параметры движения самолета и с учетом рельефа местности, а также времени реак ции пилота автоматически уводят самолет в случае необходимости из опасной зоны. человека в тех случаях, когда он находится на пределе своих возможностей, и, напротив, эпизодическая передача ему дополнительных функций (например, ручного управления самолетом) в периоды потенциально опасной недонагрузки. В результате возникает новая задача адаптивной автоматизации. Она предполагает психологический мониторинг функционального состояния человека с текущей оценкой степени и характера его внимания, содержаний восприятия, понимания актуальной ситуации (или «осознания ситуации» — situation awareness) и, насколько возможно, также непосредственных намерений. Хотя в общем виде эта задача еще очень долго не будет иметь решения, ее частные решения, похоже, возможны; они опираются на результаты прикладных когнитивных исследований и также обсуждаются на страницах этой книги (см. 3.4.2 и 7.4.3).

Инженерную психологию всегда интересовала задача нахождения некоторого единого языка для описания работы человека и функционирования технических систем. Наиболее подходящим языком такого описания вначале считалась теория информации. С накоплением опровергающих это мнение данных (см. 2.1.3), а затем и с возникновением задачи адаптивной автоматизации стали меняться акценты, так что иногда сами машины стали описываться в антропоморфных терминах как продукты (артефакты) деятельности человека. Так, датчанин Йене Расмуссен (Rasmussen, 1986) предложил рассматривать все компоненты человеко-машинных систем в контексте трех, известных из теории деятельности вопросов: «для чего?», «что?» и «как?» (см. 1.4.3). Им же была предложена трехуровневая модель операторской деятельности, в которой на самом низком уровне поведение находится под контролем автоматизированных навыков, на втором — хранящихся в памяти правил и на третьем — знаний о ситуации. Данная модель используется прежде всего для классификации ошибок оператора. В зависимости от уровня возникновения такие ошибки влекут за собой разную степень ответственности. Например, авиадиспетчер может просто перепутать похожие команды (неудачно расположенные рядом кнопки) или же, подумав, сознательно направить два самолета на одну и ту же посадочную полосу (см. 9.1.3).

Недостатком этой и аналогичных ранних моделей является то, что они были совершенно недостаточно обоснованы с точки зрения фундаментальных исследований. В частности, их авторы полностью игнорировали нейрофизиологические и нейропсихологические данные, столь важные, как становится очевидно в последние годы, для создания более реалистических представлений о специфических особенностях и ограничениях возможностей человека в его взаимодействии с техническими системами (см. 7.4.3 и 8.4.3). Эти данные впервые заложили теоретико-экспериментальную основу для прикладных исследований на границе психологии и новых технологий, подтверждая старое правило «Нет ни-102 чего практичнее хорошей теории». Кроме того, классическая для этой

области проблематика стресса и утомления обусловила постоянный диалог исследований когнитивной организации с анализом функциональных состояний (см. 9.4.3). Таким образом, развитие инженерной психологии и такого нового ее раздела, как когнитивная эргономика (дисциплина, занимающаяся оптимизацией взаимодействия человека и компьютерных систем), сегодня находится под прямым влиянием исследований в широкой области когнитивных и аффективных нейронаук.

Январь 24, 2019 Психология труда, инженерная психология, эргономика
Еще по теме
Крылов ИНЖЕНЕРНАЯ ПСИХОЛОГИЯ В СТАНОВЛЕНИИ СОВРЕМЕННОЙ ОТЕЧЕСТВЕННОЙ ПСИХОЛОГИИ
§ 3. ЗАДАЧИ ИНЖЕНЕРНОЙ ПСИХОЛОГИИ
Раздел 2 ИНЖЕНЕРНАЯ ПСИХОЛОГИЯ
3.3. ИНЖЕНЕРНАЯ ПСИХОЛОГИЯ
1.1. Общие тенденции эволюции образа человека в отечественной психологии
ГЛАВА VI. ОСНОВЫ ИНЖЕНЕРНОЙ ПСИХОЛОГИИ
ТЕМА 6. ОСНОВЫ ИНЖЕНЕРНОЙ ПСИХОЛОГИИ
Глава ИНЖЕНЕРНАЯ ПСИХОЛОГИЯ В КОСМОНАВТИКЕ
Глава 3. ИНЖЕНЕРНАЯ ПСИХОЛОГИЯ И ПСИХОЛОГИЯ
§ 1.ОПРЕДЕЛЕНИЕ ИНЖЕНЕРНОЙ ПСИХОЛОГИИ
Глава ИНЖЕНЕРНАЯ ПСИХОЛОГИЯ КАК НАУКА
6.2. Специфика методов инженерной психологии
Эволюция бихевиоризма и психоанализа рубежной психологии. Основные научные направления отечественной психологии человека» Основные формы объяснения психических механизмов целенаправленной активности человека.
2. Специфика методов инженерной психологии
§2. ЦЕЛЬ И СТРАТЕГИЯ ИНЖЕНЕРНОЙ ПСИХОЛОГИИ
Добавить комментарий