Зурада, Йозеф

Зурада, Йозеф

Адрес: Колледж бизнеса и государственного управления, Университет Луисвилля, Луисвилл, Кентукки, 40292

Страна: США

Телефон: 1 (502) 852-4681

Факс: 1 (502) 852-7557

E-mail: jmzura01@ulkyvm.louisville.edu

Прошлые должности: Консультант

Образование: Доктор философии, 1995 г., Университет Луисвилля, США.

Области, представляющие интерес: безопасность роботов; взаимодействие человека с компьютером; применение нейронных сетей; компьютерная архитектура и операционные системы; человеческий фактор на производстве

 

Гибридная автоматизированная система (ГАС) призвана интегрировать возможности машин с искусственным интеллектом (на основе компьютерных технологий) с возможностями людей, взаимодействующих с этими машинами в процессе своей трудовой деятельности. Основные проблемы использования HAS связаны с тем, как должны быть спроектированы человеческие и машинные подсистемы, чтобы наилучшим образом использовать знания и навыки обеих частей гибридной системы, и как люди-операторы и компоненты машины должны взаимодействовать друг с другом. чтобы их функции дополняли друг друга. Многие гибридные автоматизированные системы развились как продукты применения современных методологий, основанных на информации и управлении, для автоматизации и интеграции различных функций часто сложных технологических систем. Первоначально HAS была идентифицирована с внедрением компьютерных систем, используемых при проектировании и эксплуатации систем управления в реальном времени для ядерных энергетических реакторов, для химических заводов и для технологии производства дискретных деталей. В настоящее время HAS также можно найти во многих сферах обслуживания, таких как управление воздушным движением и процедуры навигации самолетов в области гражданской авиации, а также при разработке и использовании интеллектуальных систем навигации для транспортных средств и шоссе в дорожном транспорте.

С продолжающимся прогрессом в компьютерной автоматизации характер человеческих задач в современных технологических системах меняется от задач, требующих перцептивно-моторных навыков, к задачам, требующим когнитивной деятельности, которые необходимы для решения проблем, принятия решений при мониторинге системы и для задачи диспетчерского контроля. Например, люди-операторы в компьютеризированных производственных системах в основном действуют как системные мониторы, решают проблемы и принимают решения. Когнитивная деятельность человека-руководителя в любой среде HAS заключается в (1) планировании того, что следует делать в течение заданного периода времени, (2) разработке процедур (или шагов) для достижения набора запланированных целей, (3) мониторинге прогресса. (технологических) процессов, (4) «обучение» системы через человеко-интерактивный компьютер, (5) вмешательство, если система ведет себя ненормально или если меняются приоритеты управления, и (6) обучение через обратную связь от системы о воздействии надзорные действия (Шеридан, 1987).

Гибридная система

Взаимодействие человека и машины в HAS включает использование динамических коммуникационных циклов между людьми-операторами и интеллектуальными машинами — процесс, который включает в себя получение и обработку информации, а также инициирование и выполнение задач управления и принятие решений — в рамках заданной структуры распределения функций между люди и машины. Как минимум, взаимодействие между людьми и автоматизацией должно отражать высокую сложность гибридных автоматизированных систем, а также соответствующие характеристики людей-операторов и требования к задачам. Таким образом, гибридная автоматизированная система формально может быть определена как пятерка в следующей формуле:

ЕСТЬ = (Т, У, С, Е, И)

в котором T = требования к задаче (физические и когнитивные); U = характеристики пользователя (физические и когнитивные); C = характеристики автоматизации (аппаратное и программное обеспечение, включая компьютерные интерфейсы); E = среда системы; I = набор взаимодействий между вышеуказанными элементами.

Набор взаимодействий I воплощает в себе все возможные взаимодействия между T, U и C in E независимо от их характера или силы связи. Например, одно из возможных взаимодействий может включать связь данных, хранящихся в памяти компьютера, с соответствующими знаниями, если таковые имеются, у человека-оператора. Взаимодействия I может быть элементарным (т. е. ограниченным взаимно-однозначной ассоциацией) или сложным, например, включать взаимодействие между человеком-оператором, конкретным программным обеспечением, используемым для выполнения желаемой задачи, и доступным физическим интерфейсом с компьютером.

Разработчики многих гибридных автоматизированных систем сосредотачиваются в первую очередь на автоматизированной интеграции сложных машин и другого оборудования как части компьютерной технологии, редко уделяя большое внимание первостепенной необходимости эффективной интеграции человека в такие системы. Поэтому в настоящее время многие компьютерно-интегрированные (технологические) системы не полностью совместимы с присущими человеку возможностями, выражающимися в навыках и знаниях, необходимых для эффективного управления и мониторинга этих систем. Такая несовместимость возникает на всех уровнях человеческого, машинного и человеко-машинного функционирования и может быть определена в рамках отдельного человека и всей организации или объекта. Например, проблемы интеграции людей и технологий на передовых производственных предприятиях возникают на ранней стадии проектирования HAS. Эти проблемы могут быть концептуализированы с использованием следующей модели системной интеграции сложности взаимодействий: I, между разработчиками системы, D, операторы, H, или потенциальные пользователи системы и технологии, T:

Я (Ч, Т) = Ф [ Я (Ч, Д), Я (Д, Т)]

в котором I обозначает соответствующие взаимодействия, происходящие в данной структуре HAS, в то время как F указывает на функциональные отношения между дизайнерами, людьми-операторами и технологиями.

Приведенная выше модель системной интеграции подчеркивает тот факт, что взаимодействие между пользователями и технологией определяется результатом интеграции двух предыдущих взаимодействий, а именно (1) взаимодействия между разработчиками HAS и потенциальными пользователями и (2) взаимодействия между разработчиками. и технология HAS (на уровне машин и их интеграции). Следует отметить, что, хотя между проектировщиками и технологиями обычно существует тесное взаимодействие, можно найти очень мало примеров столь же прочных взаимосвязей между проектировщиками и людьми-операторами.

Можно утверждать, что даже в самых автоматизированных системах роль человека остается решающей для успешной работы системы на операционном уровне. Bainbridge (1983) определил ряд проблем, связанных с работой HAS, которые связаны с природой самой автоматизации, а именно:

    1. Операторы «вне контура управления». Люди-операторы присутствуют в системе для осуществления управления, когда это необходимо, но, находясь «вне контура управления», они не могут поддерживать навыки ручного труда и долгосрочные системные знания, которые часто требуются в случае чрезвычайной ситуации.
    2. Устаревшая «ментальная картина». Люди-операторы могут быть не в состоянии быстро реагировать на изменения в поведении системы, если они не следят очень внимательно за событиями, происходящими в ее работе. Кроме того, знания операторов или их мысленное представление о функционировании системы могут быть недостаточными для того, чтобы инициировать или осуществить требуемые действия.
    3. Исчезающие поколения навыков. Новые операторы могут быть не в состоянии приобрести достаточные знания о компьютеризированной системе, приобретенные на основе опыта, и, следовательно, не смогут осуществлять эффективный контроль, когда это необходимо.
    4. Авторитет автоматики. Если компьютеризированная система была внедрена потому, что она может выполнять требуемые задачи лучше, чем человек-оператор, возникает вопрос: «На каком основании оператор должен решать, правильные или неправильные решения принимаются автоматизированными системами?»
    5. Появление новых видов «человеческих ошибок» за счет автоматизации. Автоматизированные системы приводят к новым видам ошибок и, следовательно, аварий, которые невозможно проанализировать в рамках традиционных методов анализа.

             

            Распределение задач

            Одним из важных вопросов при проектировании HAS является определение того, сколько и какие функции или обязанности должны быть возложены на людей-операторов, а какие и сколько — на компьютеры. Как правило, следует рассматривать три основных класса проблем распределения задач: (1) распределение задач между человеком и компьютером, (2) распределение задач между человеком и (3) распределение задач между управляющим компьютером и компьютером. В идеале решения о распределении должны приниматься с помощью некоторой структурированной процедуры распределения до того, как будет начато базовое проектирование системы. К сожалению, такой систематический процесс редко возможен, поскольку функции, которые должны быть распределены, могут либо нуждаться в дальнейшем изучении, либо должны выполняться в интерактивном режиме между человеческими и машинными компонентами системы, то есть посредством применения парадигмы диспетчерского управления. Распределение задач в гибридных автоматизированных системах должно быть сосредоточено на степени ответственности человека и компьютера и должно учитывать характер взаимодействия между человеком-оператором и компьютеризированными системами поддержки принятия решений. Следует также учитывать средства передачи информации между машинами и человеческими интерфейсами ввода-вывода и совместимость программного обеспечения с когнитивными способностями человека решать проблемы.

            В традиционных подходах к проектированию и управлению гибридными автоматизированными системами работники рассматривались как детерминированные системы ввода-вывода, и существовала тенденция игнорировать телеологическую природу человеческого поведения, то есть целенаправленное поведение, основанное на приобретении соответствующую информацию и выбор целей (Гудштейн и др., 1988). Чтобы добиться успеха, проектирование и управление передовыми гибридными автоматизированными системами должно основываться на описании психических функций человека, необходимых для выполнения конкретной задачи. Подход «когнитивной инженерии» (более подробно описанный ниже) предполагает, что человеко-машинные (гибридные) системы должны быть задуманы, спроектированы, проанализированы и оценены с точки зрения человеческих мыслительных процессов (т.е. мысленная модель адаптивных систем оператора принимается во внимание). учетная запись). Ниже приведены требования ориентированного на человека подхода к проектированию и эксплуатации HAS, сформулированные Корбеттом (1988):

              1. Совместимость. Эксплуатация системы не должна требовать навыков, не связанных с существующими навыками, но должна позволять существующим навыкам развиваться. Человек-оператор должен вводить и получать информацию, которая совместима с общепринятой практикой, чтобы интерфейс соответствовал предшествующим знаниям и навыкам пользователя.
              2. Прозрачность. Нельзя управлять системой, не понимая ее. Следовательно, человек-оператор должен иметь возможность «видеть» внутренние процессы управляющего программного обеспечения системы, если необходимо облегчить обучение. Прозрачная система позволяет пользователям легко создавать внутреннюю модель функций принятия решений и контроля, которые может выполнять система.
              3. Минимальный шок. Система не должна делать ничего, что операторы считают неожиданным в свете доступной им информации, подробно описывающей текущее состояние системы.
              4. Контроль помех. Неопределенные задачи (как определено анализом структуры выбора) должны находиться под контролем человека-оператора с компьютерной поддержкой принятия решений.
              5. Погрешность. Неявные навыки и знания людей-операторов не должны быть разработаны вне системы. Операторы никогда не должны ставиться в положение, когда они беспомощно наблюдают, как программное обеспечение управляет неправильной операцией.
              6. Обратимость ошибки. Программное обеспечение должно обеспечивать достаточную упреждающую информацию, чтобы информировать человека-оператора о вероятных последствиях конкретной операции или стратегии.
              7. Операционная гибкость. Система должна предлагать операторам свободу выбора между требованиями и ограничениями ресурсов путем изменения операционных стратегий без потери поддержки управляющего программного обеспечения.

               

              Когнитивная инженерия человеческого фактора

              Когнитивная инженерия человеческого фактора фокусируется на том, как люди-операторы принимают решения на рабочем месте, решают проблемы, формулируют планы и осваивают новые навыки (Hollnagel and Woods, 1983). Роли людей-операторов, функционирующих в любой HAS, можно разделить по схеме Расмуссена (1983) на три основные категории:

                1. Поведение, основанное на навыках сенсорно-моторные действия, выполняемые во время действий или действий, которые происходят без сознательного контроля в виде плавных, автоматизированных и высокоинтегрированных паттернов поведения. Человеческая деятельность, подпадающая под эту категорию, считается последовательностью искусных действий, составленных для данной ситуации. Таким образом, поведение, основанное на навыках, является выражением более или менее сохраненных паттернов поведения или заранее запрограммированных инструкций в пространственно-временной области.
                2. Поведение на основе правил — это целевая категория производительности, структурированная с помощью прямого управления посредством хранимого правила или процедуры, то есть упорядоченная производительность, позволяющая составить последовательность подпрограмм в знакомой рабочей ситуации. Правило обычно выбирается из предыдущего опыта и отражает функциональные свойства, ограничивающие поведение среды. Производительность на основе правил основана на явных ноу-хау в отношении использования соответствующих правил. Набор данных для принятия решения состоит из ссылок для распознавания и идентификации состояний, событий или ситуаций.
                3. Поведение, основанное на знаниях — категория целенаправленной деятельности, при которой цель четко формулируется на основе знаний об окружающей среде и целях человека. Внутренняя структура системы представлена ​​«ментальной моделью». Такой тип поведения позволяет разрабатывать и тестировать различные планы в незнакомых и, следовательно, неопределенных условиях контроля и необходим, когда навыки или правила либо недоступны, либо неадекватны, так что вместо этого необходимо прибегнуть к решению проблем и планированию.

                     

                    При проектировании и управлении HAS следует учитывать когнитивные характеристики работников, чтобы обеспечить совместимость работы системы с внутренней моделью работника, описывающей его функции. Следовательно, уровень описания системы должен быть смещен с основанного на навыках на основанный на правилах и знаниях аспект функционирования человека, а для идентификации операторской модели системы должны использоваться соответствующие методы анализа когнитивных задач. Смежным вопросом при разработке HAS является проектирование средств передачи информации между человеком-оператором и компонентами автоматизированной системы как на физическом, так и на когнитивном уровнях. Такая передача информации должна быть совместима со способами передачи информации, используемыми на разных уровнях работы системы, т. е. визуальным, вербальным, тактильным или гибридным. Эта информационная совместимость гарантирует, что различные формы передачи информации потребуют минимальной несовместимости между средой и характером информации. Например, визуальный дисплей лучше всего подходит для передачи пространственной информации, тогда как слуховой ввод может использоваться для передачи текстовой информации.

                    Довольно часто человек-оператор разрабатывает внутреннюю модель, которая описывает работу и функции системы в соответствии с его или ее опытом, обучением и инструкциями в связи с данным типом человеко-машинного интерфейса. В свете этой реальности разработчики HAS должны попытаться встроить в машины (или другие искусственные системы) модель физических и когнитивных характеристик человека-оператора, то есть системный образ оператора (Hollnagel and Woods, 1983). . Разработчики HAS также должны учитывать уровень абстракции в описании системы, а также различные соответствующие категории поведения человека-оператора. Эти уровни абстракции для моделирования человеческого функционирования в рабочей среде следующие (Расмуссен, 1983): (1) физическая форма (анатомическая структура), (2) физические функции (физиологические функции), (3) обобщенные функции (психологические механизмы и когнитивные функции). и аффективные процессы), (4) абстрактные функции (обработка информации) и (5) функциональное назначение (ценностные структуры, мифы, религии, человеческие взаимодействия). Эти пять уровней должны учитываться разработчиками одновременно, чтобы обеспечить эффективную работу HAS.

                    Дизайн системного программного обеспечения

                    Поскольку компьютерное программное обеспечение является основным компонентом любой среды HAS, разработка программного обеспечения, включая проектирование, тестирование, эксплуатацию и модификацию, а также вопросы надежности программного обеспечения также должны учитываться на ранних стадиях разработки HAS. Таким образом, можно снизить стоимость обнаружения и устранения ошибок в программном обеспечении. Однако трудно оценить надежность человеческих компонентов HAS из-за ограничений нашей способности моделировать выполнение задач человеком, связанную с этим рабочую нагрузку и возможные ошибки. Чрезмерная или недостаточная умственная нагрузка может привести к информационной перегрузке и скуке, соответственно, и может привести к снижению работоспособности человека, что приведет к ошибкам и увеличению вероятности несчастных случаев. Разработчики HAS должны использовать адаптивные интерфейсы, использующие методы искусственного интеллекта, для решения этих проблем. В дополнение к совместимости человека и машины необходимо учитывать вопрос адаптации человека и машины друг к другу, чтобы снизить уровень стресса, который возникает, когда человеческие возможности могут быть превышены.

                    Из-за высокого уровня сложности многих гибридных автоматизированных систем выявление любых потенциальных опасностей, связанных с аппаратным обеспечением, программным обеспечением, операционными процедурами и взаимодействием человека и машины этих систем, становится критически важным для успеха усилий, направленных на снижение травматизма и повреждения оборудования. . Угрозы безопасности и здоровью, связанные со сложными гибридными автоматизированными системами, такими как компьютерно-интегрированные производственные технологии (CIM), безусловно, являются одним из наиболее важных аспектов проектирования и эксплуатации системы.

                    Проблемы безопасности системы

                    Гибридные автоматизированные среды с их значительным потенциалом неустойчивого поведения управляющего программного обеспечения в условиях системных возмущений создают риск аварий нового поколения. По мере того как гибридные автоматизированные системы становятся все более универсальными и сложными, системные помехи, в том числе проблемы с запуском и остановом, а также отклонения в управлении системой, могут значительно повысить вероятность серьезной опасности для людей-операторов. По иронии судьбы, во многих нештатных ситуациях операторы обычно полагаются на надлежащее функционирование автоматизированных подсистем безопасности, что может увеличить риск серьезных травм. Например, изучение аварий, связанных с неисправностями технических систем управления, показало, что около трети аварийных последовательностей включало вмешательство человека в контур управления нарушенной системы.

                    Поскольку традиционные меры безопасности не могут быть легко адаптированы к потребностям среды HAS, необходимо пересмотреть стратегии контроля травматизма и предотвращения несчастных случаев с учетом присущих этим системам характеристик. Например, в области передовых производственных технологий многие процессы характеризуются наличием значительных потоков энергии, которые не могут быть легко предвидены людьми-операторами. Более того, проблемы с безопасностью обычно возникают на интерфейсах между подсистемами или когда системные возмущения переходят от одной подсистемы к другой. Согласно Международной организации по стандартизации (ISO 1991), риски, связанные с опасностями, связанными с промышленной автоматизацией, различаются в зависимости от типов промышленных машин, включенных в конкретную производственную систему, и способов установки, программирования, эксплуатации и обслуживания системы. и отремонтировано. Например, сравнение несчастных случаев, связанных с роботами, в Швеции с другими типами несчастных случаев показало, что роботы могут быть наиболее опасными промышленными машинами, используемыми в передовой производственной промышленности. Расчетная частота несчастных случаев с промышленными роботами составляла одну серьезную аварию на 45 робото-лет, что выше, чем у промышленных прессов, которые, как сообщалось, составляли одну аварию на 50 машино-лет. Здесь следует отметить, что на промышленные прессы в Соединенных Штатах приходилось около 23% всех смертельных случаев, связанных с металлообрабатывающими станками, за период 1980–1985 гг., при этом механические прессы занимали первое место по соотношению тяжесть-частота несмертельных травм.

                    В области передовых производственных технологий существует множество движущихся частей, которые представляют опасность для рабочих, поскольку они сложным образом меняют свое положение вне поля зрения человека-оператора. Быстрое технологическое развитие компьютеризированного производства создало острую потребность в изучении влияния передовых производственных технологий на рабочих. Для выявления опасностей, вызванных различными компонентами такой среды ГАС, необходимо тщательно проанализировать прошлые аварии. К сожалению, несчастные случаи, связанные с использованием роботов, трудно отделить от сообщений о несчастных случаях, связанных с машинами, управляемыми людьми, и, следовательно, может быть высокий процент незарегистрированных несчастных случаев. Правила охраны труда и техники безопасности Японии гласят, что «промышленные роботы в настоящее время не имеют надежных средств безопасности, и рабочие не могут быть защищены от них, если их использование не регулируется». Например, результаты исследования, проведенного Министерством труда Японии (Sugimoto 1987) несчастных случаев, связанных с промышленными роботами на 190 обследованных фабриках (с 4,341 рабочим роботом), показали, что было 300 нарушений, связанных с роботами, из которых 37 случаев небезопасных действий привели к несчастным случаям, 9 несчастным случаям с травмами и 2 несчастным случаям со смертельным исходом. Результаты других исследований показывают, что компьютеризированная автоматизация не обязательно повышает общий уровень безопасности, поскольку аппаратное обеспечение системы не может быть обеспечено отказоустойчивостью только за счет функций безопасности в компьютерном программном обеспечении, а системные контроллеры не всегда отличаются высокой надежностью. Кроме того, в сложной HAS нельзя полагаться исключительно на датчики безопасности для обнаружения опасных условий и принятия соответствующих стратегий предотвращения опасностей.

                    Влияние автоматизации на здоровье человека

                    Как обсуждалось выше, действия рабочих во многих средах HAS в основном связаны с диспетчерским контролем, мониторингом, поддержкой и обслуживанием системы. Эти виды деятельности также можно разделить на четыре основные группы следующим образом: (1) задачи программирования, т. е. кодирование информации, которая направляет и управляет работой оборудования, (2) мониторинг компонентов производства и управления HAS, (3) техническое обслуживание компонентов HAS для предотвращения или устранять сбои в работе оборудования и (4) выполнять различные вспомогательные задачи и т. д. Многие недавние обзоры влияния HAS на самочувствие рабочих пришли к выводу, что, хотя использование HAS на производстве может устранить тяжелые и опасные задачи , работа в среде HAS может быть неудовлетворительной и напряженной для работников. Источники стресса включали постоянный мониторинг, необходимый во многих приложениях HAS, ограниченный объем выделенных действий, низкий уровень взаимодействия работников, разрешенный конструкцией системы, и угрозы безопасности, связанные с непредсказуемым и неконтролируемым характером оборудования. Несмотря на то, что некоторые работники, участвующие в программировании и техническом обслуживании, ощущают элементы трудностей, которые могут положительно сказаться на их самочувствии, эти последствия часто нивелируются сложным и требовательным характером этих действий, а также давлением. усилия руководства для скорейшего завершения этих мероприятий.

                    Хотя в некоторых средах HAS люди-операторы удалены от традиционных источников энергии (потока работы и движения машины) в нормальных условиях эксплуатации, многие задачи в автоматизированных системах по-прежнему необходимо выполнять в прямом контакте с другими источниками энергии. Поскольку количество различных компонентов HAS постоянно увеличивается, особое внимание должно уделяться комфорту и безопасности рабочих, а также разработке эффективных мер по контролю травматизма, особенно с учетом того факта, что рабочие больше не в состоянии идти в ногу с сложности и сложности таких систем.

                    Чтобы удовлетворить текущие потребности в области контроля травматизма и безопасности работников в компьютеризированных интегрированных производственных системах, Комитет ИСО по системам промышленной автоматизации предложил новый стандарт безопасности под названием «Безопасность интегрированных производственных систем» (1991 г.). Этот новый международный стандарт, разработанный с учетом особых опасностей, существующих в интегрированных производственных системах, включающих промышленные машины и сопутствующее оборудование, направлен на минимизацию возможности получения травм персоналом во время работы в интегрированной производственной системе или рядом с ней. Основные источники потенциальных опасностей для людей-операторов в CIM, определенные настоящим стандартом, показаны на рисунке 1.

                    Рисунок 1. Основной источник опасностей в автоматизированном производстве (CIM) (после ISO 1991)

                    АСС250Т1

                    Человеческие и системные ошибки

                    Как правило, опасности в HAS могут возникать из-за самой системы, из-за ее связи с другим оборудованием, присутствующим в физической среде, или из-за взаимодействия человеческого персонала с системой. Несчастный случай — это лишь один из нескольких результатов взаимодействия человека и машины, которые могут возникнуть в опасных условиях; несчастные случаи и повреждения случаются гораздо чаще (Zimolong and Duda, 1992). Возникновение ошибки может привести к одному из следующих последствий: (1) ошибка остается незамеченной, (2) система может компенсировать ошибку, (3) ошибка приводит к поломке машины и/или остановке системы или (4) ) ошибка приводит к аварии.

                    Поскольку не каждая человеческая ошибка, которая приводит к критическому происшествию, приводит к реальному происшествию, уместно проводить дальнейшее разграничение между категориями результатов следующим образом: (1) небезопасный инцидент (т. е. любое непреднамеренное происшествие, независимо от того, приводит ли оно к травме, повреждению или убыток), (2) несчастный случай (т. е. небезопасное событие, повлекшее за собой травмы, ущерб или убытки), (3) происшествие с ущербом (т. е. небезопасное событие, которое приводит только к некоторому материальному ущербу), (4) предаварийное происшествие или «промах» (т. е. небезопасное событие, при котором травмы, ущерб или потери удалось избежать с небольшим отрывом) и (5) наличие возможности аварийного происшествия (т. е. небезопасные события, которые могли привести к травмам, повреждению , либо убыток, но в силу обстоятельств не повлекший даже близкой аварии).

                    В HAS можно выделить три основных типа человеческих ошибок:

                      1. промахи и упущения, основанные на навыках
                      2. ошибки на основе правил
                      3. ошибки, основанные на знаниях.

                           

                          Эта таксономия, разработанная Ризоном (1990), основана на модификации классификации человеческой деятельности Расмуссена «навыки-правила-знания», как описано выше. На уровне навыков человеческая деятельность управляется сохраненными шаблонами заранее запрограммированных инструкций, представленных в виде аналоговых структур в пространственно-временной области. Уровень, основанный на правилах, применим для решения знакомых проблем, в которых решения регулируются сохраненными правилами (называемыми «продукциями», поскольку к ним обращаются или они создаются по мере необходимости). Эти правила требуют постановки определенных диагнозов (или суждений) или принятия определенных мер по исправлению положения, если возникли определенные условия, требующие соответствующего реагирования. На этом уровне человеческие ошибки обычно связаны с неправильной классификацией ситуаций, что приводит либо к применению неправильного правила, либо к неправильному воспроизведению последующих суждений или процедур. Ошибки, основанные на знаниях, возникают в новых ситуациях, для которых действия необходимо планировать «онлайн» (в данный момент), используя сознательные аналитические процессы и накопленные знания. Ошибки на этом уровне возникают из-за ограниченности ресурсов и неполных или неправильных знаний.

                          Общие системы моделирования ошибок (GEMS), предложенные Reason (1990), в которых делается попытка локализовать источники основных типов человеческих ошибок, могут быть использованы для получения общей таксономии человеческого поведения в HAS. GEMS стремится объединить две отдельные области исследования ошибок: (1) промахи и упущения, при которых действия отклоняются от текущего намерения из-за сбоев выполнения и/или сбоев хранения, и (2) ошибки, при которых действия могут выполняться в соответствии с планом, но план недостаточен для достижения желаемого результата.

                          Оценка и предотвращение рисков в CIM

                          Согласно ISO (1991 г.), оценка риска в CIM должна выполняться таким образом, чтобы свести к минимуму все риски и служить основой для определения целей и мер безопасности при разработке программ или планов как для создания безопасной рабочей среды, так и для обеспечения а также безопасность и здоровье персонала. Например, производственные опасности в производственной среде HAS можно охарактеризовать следующим образом: (1) человеку-оператору может потребоваться войти в опасную зону во время устранения неполадок, выполнения задач обслуживания и технического обслуживания, (2) опасную зону трудно определить, воспринимать и контролировать, (3) работа может быть монотонной и (4) несчастные случаи, происходящие в автоматизированных производственных системах, часто бывают серьезными. Каждая идентифицированная опасность должна быть оценена на предмет связанного с ней риска, и должны быть определены и реализованы соответствующие меры безопасности для минимизации этого риска. Опасности также должны быть установлены в отношении всех следующих аспектов любого данного процесса: самого отдельного устройства; взаимодействие между отдельными единицами; рабочие разделы системы; и работу всей системы во всех предусмотренных рабочих режимах и условиях, включая условия, при которых обычные средства защиты приостанавливаются для таких операций, как программирование, проверка, поиск и устранение неисправностей, техническое обслуживание или ремонт.

                          Этап разработки стратегии безопасности ISO (1991) для CIM включает:

                            • спецификация пределов системных параметров
                            • применение стратегии безопасности
                            • выявление опасностей
                            • оценка сопутствующих рисков
                            • устранение опасностей или уменьшение рисков, насколько это практически возможно.

                                     

                                    Спецификация безопасности системы должна включать:

                                      • описание функций системы
                                      • компоновка системы и/или модель
                                      • результаты опроса, проведенного для изучения взаимодействия различных рабочих процессов и ручной деятельности
                                      • анализ технологических последовательностей, включая ручное взаимодействие
                                      • описание интерфейсов с конвейером или транспортными линиями
                                      • технологические схемы
                                      • планы фундамента
                                      • планы снабжения и утилизации устройств
                                      • определение места, необходимого для подачи и утилизации материала
                                      • имеющиеся записи об авариях.

                                                         

                                                        В соответствии с ISO (1991) все необходимые требования для обеспечения безопасной работы системы CIM необходимо учитывать при разработке процедур систематического планирования безопасности. Это включает в себя все защитные меры для эффективного снижения опасностей и требует:

                                                          • интеграция человеко-машинного интерфейса
                                                          • раннее определение положения работающих над системой (во времени и пространстве)
                                                          • заблаговременное рассмотрение способов сокращения изолированной работы
                                                          • учет экологических аспектов.

                                                               

                                                              Процедура планирования безопасности должна охватывать, среди прочего, следующие вопросы безопасности CIM:

                                                                • Выбор режимов работы системы. Аппаратура управления должна иметь средства, по крайней мере, для следующих режимов работы: (1) нормальный или производственный режим (т. е. со всеми подключенными и действующими нормальными средствами защиты), (2) работа с отключенными некоторыми нормальными средствами защиты и (3) работа в какая система или дистанционное ручное инициирование опасных ситуаций предотвращается (например, в случае местного управления или отключения питания или механической блокировки опасных условий).
                                                                • Обучение, установка, ввод в эксплуатацию и функциональное тестирование. Когда персонал должен находиться в опасной зоне, в системе управления должны быть предусмотрены следующие меры безопасности: (1) удержание для запуска, (2) устройство включения, (3) пониженная скорость, (4) пониженная мощность и (5) ) подвижный аварийный останов.
                                                                • Безопасность при системном программировании, обслуживании и ремонте. Во время программирования только программист должен находиться в охраняемом пространстве. В системе должны быть предусмотрены процедуры осмотра и технического обслуживания, чтобы обеспечить непрерывную предполагаемую работу системы. Программа проверки и технического обслуживания должна учитывать рекомендации поставщика системы и поставщиков различных элементов систем. Едва ли нужно упоминать, что персонал, выполняющий техническое обслуживание или ремонт системы, должен быть обучен процедурам, необходимым для выполнения требуемых задач.
                                                                • Устранение неисправности. При необходимости устранения неисправности изнутри защищаемого помещения его следует производить после безопасного отключения (или, по возможности, после срабатывания механизма блокировки). Должны быть приняты дополнительные меры против ошибочного возникновения опасных ситуаций. Если при устранении неисправностей на участках системы или на машинах смежных систем или машин могут возникнуть опасности, то они также должны быть выведены из эксплуатации и защищены от неожиданного пуска. С помощью предупредительных и предупредительных знаков следует обратить внимание на устранение неисправностей в компонентах системы, которые невозможно полностью наблюдать.

                                                                       

                                                                      Системный контроль помех

                                                                      Во многих установках HAS, используемых в области производства с компьютерной интеграцией, операторы обычно необходимы для управления, программирования, технического обслуживания, предварительной настройки, обслуживания или устранения неполадок. Нарушения в системе приводят к ситуациям, требующим выхода рабочих в опасные зоны. В этом отношении можно предположить, что помехи остаются наиболее важной причиной вмешательства человека в CIM, поскольку системы чаще всего будут программироваться из-за пределов ограниченных зон. Одним из наиболее важных вопросов безопасности CIM является предотвращение помех, поскольку большинство рисков возникает на этапе устранения неполадок в системе. Предотвращение помех является общей целью как с точки зрения безопасности, так и экономической эффективности.

                                                                      Возмущение в системе CIM — это состояние или функция системы, которая отклоняется от запланированного или желаемого состояния. Помимо производительности, помехи при работе CIM напрямую влияют на безопасность людей, участвующих в эксплуатации системы. Исследование, проведенное в Финляндии (Kuivanen, 1990), показало, что около половины сбоев в автоматизированном производстве снижают безопасность рабочих. Основными причинами нарушений были ошибки в конструкции системы (34%), отказы компонентов системы (31%), человеческий фактор (20%) и внешние факторы (15%). Большинство отказов машин было вызвано системой управления, а в системе управления большинство отказов произошло в датчиках. Эффективным способом повышения уровня безопасности установок CIM является уменьшение количества помех. Хотя действия человека в возмущенных системах предотвращают возникновение аварий в среде ГАС, они также способствуют им. Например, изучение аварий, связанных с неисправностями технических систем управления, показало, что около трети аварийных последовательностей включало вмешательство человека в контур управления нарушенной системы.

                                                                      Основные вопросы исследования предотвращения нарушений CIM касаются (1) основных причин нарушений, (2) ненадежных компонентов и функций, (3) влияния нарушений на безопасность, (4) воздействия нарушений на функцию системы, ( 5) материальный ущерб и (6) ремонт. Безопасность HAS следует планировать на ранней стадии проектирования системы с должным учетом технологий, людей и организации, и она должна быть неотъемлемой частью общего процесса технического планирования HAS.

                                                                      HAS Design: Будущие вызовы

                                                                      Чтобы обеспечить максимальную отдачу от гибридных автоматизированных систем, как обсуждалось выше, необходимо гораздо более широкое видение развития системы, основанное на интеграции людей, организаций и технологий. Здесь следует применять три основных типа системной интеграции:

                                                                        1. интеграция людей, обеспечивая эффективную связь между ними
                                                                        2. интеграция человека и компьютера, путем разработки подходящих интерфейсов и взаимодействия между людьми и компьютерами
                                                                        3. технологическая интеграция, обеспечивая эффективное взаимодействие и взаимодействие между машинами.

                                                                             

                                                                            Минимальные требования к проектированию гибридных автоматизированных систем должны включать следующее: (1) гибкость, (2) динамическая адаптация, (3) повышенная скорость реагирования и (4) необходимость мотивировать людей и лучше использовать их навыки, суждения и опыт. . Вышеизложенное также требует, чтобы организационные структуры, методы работы и технологии HAS были разработаны, чтобы люди на всех уровнях системы могли адаптировать свои рабочие стратегии к разнообразным ситуациям управления системами. Следовательно, организации, методы работы и технологии HAS должны быть спроектированы и разработаны как открытые системы (Kidd 1994).

                                                                            Открытая гибридная автоматизированная система (OHAS) — это система, которая получает входные данные и отправляет выходные данные в свою среду. Идею открытой системы можно применять не только к системным архитектурам и организационным структурам, но и к методам работы, интерфейсам человек-компьютер и отношениям между людьми и технологиями: можно упомянуть, например, системы планирования, системы управления и системы поддержки принятия решений. Открытая система также является адаптивной, когда она предоставляет людям большую степень свободы в определении режима работы системы. Например, в области передового производства требования открытой гибридной автоматизированной системы могут быть реализованы с помощью концепции человеко-компьютерное производство (ХИМ). С этой точки зрения, разработка технологии должна учитывать общую архитектуру системы HCIM, включая следующее: (1) рассмотрение сети групп, (2) структуру каждой группы, (3) взаимодействие между группами, (4) характер вспомогательного программного обеспечения и (5) потребности в технической связи и интеграции между вспомогательными программными модулями.

                                                                            Адаптивная гибридная автоматизированная система, в отличие от закрытой системы, не ограничивает возможности человека-оператора. Роль разработчика HAS состоит в том, чтобы создать систему, которая удовлетворит личные предпочтения пользователя и позволит пользователям работать так, как они считают наиболее подходящим. Необходимым условием для разрешения ввода данных пользователем является разработка методологии адаптивного проектирования, то есть OHAS, которая позволяет использовать компьютерную технологию для ее реализации в процессе проектирования. Необходимость разработки методологии адаптивного проектирования является одним из неотложных требований для практической реализации концепции OHAS. Также необходимо разработать новый уровень адаптивной технологии диспетчерского управления человеком. Такая технология должна позволять человеку-оператору «видеть сквозь» невидимую иначе систему управления функционированием ГАС, например, путем применения интерактивной высокоскоростной видеосистемы в каждой точке управления и работы системы. Наконец, очень необходима методология разработки интеллектуальной и высокоадаптивной компьютерной поддержки человеческих ролей и функционирования человека в гибридных автоматизированных системах.

                                                                             

                                                                            Назад

                                                                            ОТКАЗ ОТ ОТВЕТСТВЕННОСТИ: МОТ не несет ответственности за контент, представленный на этом веб-портале, который представлен на каком-либо языке, кроме английского, который является языком, используемым для первоначального производства и рецензирования оригинального контента. Некоторые статистические данные не обновлялись с тех пор. выпуск 4-го издания Энциклопедии (1998 г.)».

                                                                            Содержание: