Мнение
Анатолий Костин і
Э
т
а н е п р е д с к а з у е м
а я а в т
о м
а т
и к а
U-
с.
о
о
а.
а
читается, что ліпома пил шм бла-
го. Директора заводов хвастают:
«Производство у нас роботизи-
ровано, только на пульте чело-
век силит». Любая техническая новинка,
от станка ло сд молота, умное предыдущей и
требует от человека меньше усилий. Мир взял
курс на автоматизацию и не видит ее опасности.
Главная бела автоматики — непредсказуемость.
Создавая техническое устройство или компьютер-
ную программу, разработчики руководствуются соб-
ственными представлениями о том, кто, как и в каких
условиях будет ими пользоваться. Но в жизни не все
укладывается в норму. И потому автоматика порой
преподносит неприятные сюрпризы. Возьмем совре-
менный цифровой фотоаппарат. Человеку не надо ни-
чего устанавливать вручную, но иногда сделать снимок
не удается — жмешь пуск», а аппарат не срабатывает.
Автомат ика посчитала: лля съемки не обеспечены
оптимальные условия. 11о ведь бывает так, «гто нужно
просто не упустить нужный ракурс! Эго типичный
пример непредсказуемости «умной техники».
Л
если речь об управлении самолетом? Мало кто
знает, во время полета космического корабля «Буран»
(проходившего в автоматическом режиме) случилось
непредвиденное. Специалисты рассчитывали, что
«Буран» при приземлении сделает правый разворот,
но корабль неожиданно повернул налево и полетел по-
перек полосы. Растерялись и наземные службы, н ис-
пытатель Магомет Толбоев, сопровождавший «Буран»
на МИГ-25. К счастью, самолет благополучно призем-
лился. Причиной странного маневра стал сильный
боковой ветер, а позже разработчики заявили: веро-
ятность такого случая не больше 3%. По ведь она есть!
Л теперь допустим, что «Буран- пилотировал Толбоев.
У него было бы два пути: взять управление на себя
и отключить исправную автоматику или не вмеши-
ваться и стать заложником автоматики. Но кто гаран-
тирует, что самолет не улетит в степь и не разобьется?
Как летчик ни поступи, он кругом «виноват».
У проблемы естьешс блин аспект. В ситуациях,
не предусмотренных разработчиками, автоматика
может отключать исправную аппаратуру, корректи-
ровать или блокировать действия оператора, считая
их ошибочными. Уже сейчас это нередко приводит
к серьезным катастрофам.
Считается, что 8 случае отказа или полом-
ки оператор должен взять управление
на себя. Но перейти из автоматическо-
го режима в ручной психологически
сложно: надо понять причину аварии
и быстро перейти к активным действиям.
В автоматическом режиме оператор — пас-
сивный наблюдатель, сохранят ь бдительность ему
трудно. Так возникают фатальные ошибки. И чем
сложнее техника, тем тяжелее последствия. Мало
того 'гто оператор — заложник автоматики, он еще и
отвечает за то, чего не делает!
Автоматизация грозит не только катастрофами. Вот
неприятности помельче:
• автоматика требует специальных знаний, поэтому
требования к квалификации персонала вырастут;
• операторы будут медленно терять навыки ручного
управления, в случае аварий они не смогут выполнять
нужные действия;
• отлучечше специалистов от активного управления
может вызывать у них неуверенность и снижать соци-
альный статут.
Автоматика уже стала причиной многих авиаката-
строф. И риски растут: создаются беспилотные само-
леты, автопилоты лля автомобилей, боевые роботы.
Наши психологи еще в 1970-х голах предупреждали
об опасности бездумной автоматизации. Они пред-
ложили решение: оптимальный режим управления
техникой — полуавтоматический. Оператор играет
ведущую роль, поддерживает уровень квалификации,
а в случае отказа или аварии ему легче взять управ-
ление на себя. От разработчиков бытовой техники
требуется немного: пользователь должен получить
легкий доступ к «полуавтомату» (сейчас до него
непросто добраться). С промышленными установками
сложнее: полуавтомат здесь— первый этан решения.
В нетипичной ситуации ошибаются лаже професси-
оналы высокого класса. Снизить вероятность катас-
троф можно, опираясь на разработки инженерных
психологов, к примеру на средства активной помощи.
I !о лля начала создатели и пользователи «умных
машин» должны увидеть проблему.
А н а т о л и й К о ст ин
—доктор психологических
наук, ведущий научный сотрудник Института
психологии ГАИ.
34
Harvard Business Review России
1*8 ОМОВ
предыдущая страница 35 Harvard Business Review Russian 2007.11 читать онлайн следующая страница 37 Harvard Business Review Russian 2007.11 читать онлайн Домой Выключить/включить текст