Проблематика сложных эргономических систем
Увы, в реальности дела обстоят не так благостно. И упирается всё, как ни парадоксально, в пресловутый человеческий фактор. Каждое технологическое усовершенствование автоматики вольно или невольно вытесняет оператора на периферию непосредственного управления техникой. Поэтому возникает еще одно интересное обстоятельство: управляет вроде бы автоматика, а ответственность за безопасность по-прежнему несет человек. Ощущение исключенности из контура управления может стать причиной неуверенности и беспокойства или скуки, а прежняя профессиональная гордость сменяется чувством растерянности, ущербности, потери достоинства, когда оператор чувствует себя глупым на фоне умной автоматики.
При использовании автоматизированных систем управления неизбежно встает вопрос: даже если эта система станет более надежной и будет иметь дружественный интерфейс, должен ли оператор, не раздумывая, следовать ее советам и не приведет ли это к отказу от ответственности при появлении критических независимых соображений? Операторы могут излишне полагаться на автоматику и, столкнувшись с неожиданной проблемой, пытаться ее не замечать, вместо того чтобы выключить автоматику и перейти на ручное управление. С другой стороны, люди могут ошибиться в определении опасной или угрожающей ситуации, приняв ее за безопасную.
Возможности человека по работе в космосе известны не были, поэтому и в советский, и в американский проекты первых пилотируемых космических кораблей, соответственно «Восток» и «Меркурий», заложили концепцию приоритета автоматического управления по отношению к ручному, которое рассматривалось в качестве резервного на случай нештатных ситуаций.
Фактически человек должен был выступать в роли «затычки» или «дублера» потенциально ненадежных элементов.Безоговорочная ориентация на автоматику и недоверие к космонавту в отечественной космонавтике, в отличие от американской, сохранились и позднее. Многие последующие полеты показали, что выполнение экипажем функций дублирующего звена в нештатных ситуациях безошибочно реализовать не удается. Причиной же являлись не недостатки в наземной професси- оналъной подготовке, а исключеиностъ космонавта из процесса управления в автоматическом режиме.
В 80-е годы XX века отечественная космонавтика столкнулась с нетрадиционными отказами автоматики, заставившими пересмотреть основные принципы решения проблемы надежности. Главным из них считается элементная избыточность для резервирования отказавшего оборудования. Новый тип отказов был связан не с поломками техники, а с неадекватной работой автоматики при диагностике бортовых систем.
Получается, что ограниченная адекватность и неоднозначность использования количественных критериев надежности функционирования той или иной аппаратуры вследствие многовариантности и опосредованпости связей между различными системами и их взаимовлияния могут привести к возникновению не предусмотренных разработчиками ситуаций. Их парадоксальность заключается в том, что, несмотря на аварийную диагностику автоматики, сами технические системы будут функционировать нормально! Но тогда перестает действовать основной принцип обеспечения надежности, заключающийся в резервировании отказавших блоков систем, так как автоматика отключит любое количество исправной резервной аппаратуры, сколько бы ее ни было. Реализация управления в этом случае возможна только путем резервирования автоматики оператором на основе использования им не количественных, а качественных критериев оценки надежности, позволяющих проводить целостный анализ возникающих ситуаций.
Автоматика все больше проникает на транспорт. Многие из современных моделей автомобилей оснащаются системами спутниковой навигации, компьютерами, выполняющими функции технической диагностики и даже непосредственного управления.
Системы поддержки водителей становятся все более и более активными, уже создаются пробные варианты автопилота для вождения автомобтя в сложных городских условиях. Характерно, что главным препятствием на пути их внедрения считаются не технические трудности, а отсутствие законов, предусматривающих уголовное наказание компьютера ('кстати. это опять проблема ответственности).С одной стороны, вероятность возникновения непредвиденных ситуаций не позволяет полностью положиться на автоматику. С другой стороны, человек, лучше ориентируясь в сложных, нестандартных ситуациях, может споткнуться на ровном месте. Возможности проведения качественного, содержательного анализа ситуаций оператором определяются его профессиональным опытом, знаниями и умениями, способностями к творческому мышлению, психологической готовностью принять ответственное решение в экстремальных условиях. Но даже профессионалам высокого класса это порой не удается. Человек не всегда способен заменить автоматику в изначально неизвестных и неопределенных ситуациях, нелинейных и неустойчивых процессах межсистемного взаимодействия. В этих условиях возможны ошибочные, несанкционированные действия, несоблюдение профессиональных норм и даже отказ от деятельности.
Ограниченность возможностей операторов в непредвиденной ситуации межсистемного взаимодействия выявила и авария на четвертом блоке Чернобыльской АЭС. Технических отказов при этол( не было, а одной из основных причин аварии, помимо ошибок персонала, явилось предположение разработчиков планируемого эксперимента о независимости электротехнических и ядерных процессов.
Таким образом, основная проблема автоматизации заключается даже не в компьютере и программном обеспечении. Эта проблема во многом имеет психологический характер, так как происходит столкновение в общем-то непримиримых позиций двух профессиональных групп людей — разработчиков техники и средств автоматики, с одной стороны, и операторов — с другой. Первые (в надежде максимизировать надежность) спрашивают: что можно автоматизировать, что мешает передать все функции компьютеру, и только затем: что можно оставить человеку? Вторые (надеясь достичь максимальной удовлетворенности трудом) задаются вопросом: какие задачи могут быть выполнены человеком и в каких ему не обойтись без помощи компьютера?
В связи с тем, что проблема автоматизации управления техникой явно имеет психологический аспект, она попадает в круг интересов инженерной психологии как одной из отраслей психологической науки.
Ее решение ищется в основном в рамках проблемы распределения функций между человеком и автоматикой. Принципы решения этой, по словам отца кибернетики Я. Винера, одной из великих проблем претерпели значительную эволюцию. Рассмотрим вкратце некоторые из них.Одним из первых стал принцип преимущественных возможностей, разработанный главным образом П. Фиттсом. Суть его заключается в том, что функции человеку и автоматике должны назначаться в зависимости от того, чьи преимущества будут лучше использоваться при выполнении задачи управления. Инструментом распределения функций являются перечни преимущественных возможностей для различных задач. Например, человек превосходит машину в обнаружении слабых визуальных и акустических сигналов, создании и использовании гибких процедур, хранении больших объемов информации и вспоминании нужных фактов в нужный момент, индуктивном мышлении; наоборот, машина превосходит человека в быстроте и силе реакций, выполнении повторяющихся, рутинных задач, скорости и точности вычислений. Варианты подобных перечней разрабатываются до сих пор.
Однако у этого принципа достаточно быстро выявились серьезные ограничения, выразившиеся в существенной тривиальности итогового вывода: автоматика хорошо выполняет те функции, которые плохо выполняет человек, и наоборот. Иначе говоря, возможности человека и автоматики оказались взаимоисключающими. Однако существуют задачи., например оценка риска движения на высокой скорости, с которой одинаково плохо справляются и люди, и машины.
В противовес принг(ипу преимущественных возможностей И. Джорданам был выдвинут принцип взаимодополняемости человека и машины. В соответствии с ним нужно не распределять (фикции, а организовывать совместную деятельность человека и машины таким образом, чтобы взаимно усиливать их функции. Взаимодополняемость может выражаться как в обеспечении оптимальной трудности деятельности, так и в резервировании, дублировании человеком машины при возникновении отказов в ее работе посредством перехода на ручной режим управления.
К сожалению, из принципа взаимодополняемости прямо не следовали конкретные средства его реализации. Так, Джордан считал, что распределять следует не функции (задачи), а действия, из которых состоит каждая задача. Но главный вопрос: как определять необходимую степень автоматизации процессов управления? — остался открытым.
Следующим тагом стало понимание того, что разделение функций между человеком и автоматикой на основе перечней Фиттса является статическим. С позиции проектирования проблема распределения функций является нестационарной. Например, автоматика может отказать, а человек подвержен стрессам. Таким образом, следует осуществлять динамическое, или адаптивное, распределение функций.
Общим для такого подхода является положение о зависимости степени автоматизации процессов управления от характеристик решаемых задач, условий деятельности и величины когнитивной или умственной рабочей нагрузки (workload) оператора. Считается необходимым снижать степень автоматизации при малой нагрузке и наоборот, что позволяет поддерживать ее на относительно постоянном уровне - - не слишком низком и не слишком высоком.
Основные трудности при этом связаны с определением критериев распределения задач. Попытки использования для оценки рабочей нагрузки различных психофизиологических параметров, прежде всего характеризующие активность мозга, пока не увенчались успехом.
В то же время шпможеи и другой способ динамического распределения функций, при котором оператор сам принимает решение и осуществляет передачу функций автоматике или оставляет их для выполнения вручную. Однако оператор может переоценить ши, наоборот, недооценить свои возможности или ресурсы автоматики. Кроме того, автоматика с высокой степенью доверия будет использоваться часто, в противном случае может неоправданно выбираться ручное управление.
Проблемы доверия автоматике, активности в управлении, резервирования человеком автоматики, а также ответственности во многом решает принцип активного оператора, разработанный российскими психологами Н.Д. Заваловой, Б.Ф. Л о- мовым и В.А. Понамаренко. Как следует из названия, принцип определяет необходимость поддержания некоторого уровня активности оператора в автоматизированных режимах управления в связи с тем, что человек, работая, всегда имеет в виду конечную цель управления и активно к ней стремится.
Соответственно степень автоматизации необходимо выбирать так, чтобы человек, осуществляя непрерывный контроль процессов управления, часть операций по управлению выполнял самостоятельно. Следствием указанного принципа фактически является признание нецелесообразности использования полностью автоматических режимов и предпочтительность полуавтоматического управления.
Оставим сейчас в стороне целый пласт теоретических инженерно-психологических подходов к человеку и технике, являющихся методологической основой приведенных принципов. Это машиноцентрический, технократический, технически-ори- ентировалный подходы и противостоящие им антропоцентрический, полъзователецентрический, антропоориентированный, пользовательско-ориентированный, деятельностно-ориентиро- ванный, когнитивный и другие.
Но что делать с новым типом отказов, выражающимся в возможности отключения исправных блоков систем, когда ни на автоматику, ни на человека нельзя полностью положиться? Понятно, что функцию резервирования автоматики оператором, реализуемую посредством самостоятельного снижения им степени автоматизации, нужто сохранить. Если же и оператор не может найти решения по выходу из непредвиденной ситуации, следует осуществить обратную, на первый взгляд парадоксальную, функцию — резервирование оператора автоматикой. Ее можно реализовать путем принудительного, не зависящего от воли человека повышения степени автоматизации процессов управления.
В случае непонимания и серьезных трудностей по выходу из ситуации (которая, кстати, может возникнуть не только из-за отказов техники, но и из-за собственных ошибок) субъективная сложность деятельности оператора будет гораздо выше, ч'ем в нормальных условиях. Поэтому резервирование оператора автоматикой должно происходить при превышении некоторой нормативной величины этого показателя. И чем больше превышение, тем выше должна быть степень автоматизации, включая и переход на автоматический режим управления, если он возможен. В противном случае должны реализо- вываться автоматические резервные или аварийные режимы, обеспечивающие прежде всего надежность и безопасность технического объекта.
Повышение степени автоматизации, освобождая оператора от функций по управлению, тем самым предоставляет ему возможность для более полного и детального анализа ситуации. И если ситуация разъясняется, оператор переходит обратно к пачуавтоматическому режиму управления, если же нет — контролирует работу автоматики.
Таким образом, полуавтоматические режимы управления должны являться основньши и выбираться исходя из оценки адекватности использования количественных критериев в программах автоматики, а автоматические и ручные — рассматриваться как резервные для страховки оператора и автоматики соответственно. Изложенная стратегия гибкого изменения степени автоматизации процессов управления составляет содержание разработанного принципа взаимного резервирования оператора и автоматики.
Еще по теме Проблематика сложных эргономических систем:
- Эргономические свойства
- S 4.3. НАХОЖДЕНИЕ ЭКВИВАЛЕНТНОЙ СЛОЖНОЙ ПРОЦЕНТНОЙ СТАВКИ ДЛЯ НОМИНАЛЬНОЙ СЛОЖНОЙ ПРОЦЕНТНОЙ СТАВКИ. ЭФФЕКТИВНАЯ СЛОЖНАЯ ПРОЦЕНТНАЯ СТАВКА
- S 4.4. НАХОЖДЕНИЕ ЭКВИВАЛЕНТНОЙ НОМИНАЛЬНОЙ СЛОЖНОЙ ПРОЦЕНТНОЙ СТАВКИ ДЛЯ СЛОЖНОЙ ПРОЦЕНТНОЙ СТАВКИ
- 24. СЛОЖНЫЕ СУЖДЕНИЯ, ОТНОШЕНИЯ МЕЖДУ СЛОЖНЫМИ СУЖДЕНИЯМИ
- Тендерная проблематика
- 42. ОТКАЗ ОТ ПРОБЛЕМАТИКИ СОЗНАНИЯ
- Проблематика: понимание сетевых процессов
- 51. ГНОСЕОЛОГИЧЕСКАЯ ПРОБЛЕМАТИКА В ДРЕВНЕВОСТОЧНОЙ ФИЛОСОФИИ
- Вводная часть Сущность проблематики
- Теория Кейнса и ее влияние на проблематику денежной теории.
- 32. ПРОБЛЕМАТИКА БЫТИЯ У А. ШОПЕНГАУЭРА, Ф. НИЦШЕ, А. БЕРГСОНА, К. МАРКСА