ズラーダ、ヨゼフ

ズラーダ、ヨゼフ

住所: ルイビル大学、ルイビル、ケンタッキー州 40292

国: 米国

電話番号: 1(502)852-4681

FAX: 1(502)852-7557

Eメール: jmzura01@ulkyvm.louisville.edu

過去の役職: コンサルタント

教育: PhD、1995年、ルイビル大学、米国

関心のある分野: ロボットの安全; 人間とコンピューターの相互作用。 ニューラルネットワークの応用; コンピュータのアーキテクチャとオペレーティング システム。 製造における人的要因

 

ハイブリッド自動化システム (HAS) は、人工知能機械 (コンピューター技術に基づく) の機能を、作業活動の過程でこれらの機械と対話する人々の能力と統合することを目的としています。 HAS の利用に関する主な関心事は、ハイブリッド システムの両方の部分の知識とスキルを最大限に活用するために、人間と機械のサブシステムをどのように設計する必要があるか、および人間のオペレーターと機械のコンポーネントがどのように相互作用する必要があるかに関連しています。それらの機能が互いに補完し合うことを保証します。 多くの場合、複雑な技術システムのさまざまな機能を自動化および統合するために、最新の情報および制御ベースの方法論を適用した製品として、多くのハイブリッド自動化システムが進化してきました。 HAS は、当初、原子炉、化学処理プラント、個別部品製造技術のリアルタイム制御システムの設計と運用に使用されるコンピューターベースのシステムの導入で識別されました。 HAS は現在、航空交通管制や民間航空分野の航空機ナビゲーション手順、道路輸送におけるインテリジェントな車両および高速道路ナビゲーション システムの設計と使用など、多くのサービス産業でも見られます。

コンピューターベースの自動化の継続的な進歩に伴い、現代の技術システムにおける人間のタスクの性質は、知覚運動スキルを必要とするものから、問題解決、システム監視における意思決定、および監視制御タスク。 たとえば、コンピューター統合製造システムの人間のオペレーターは、主にシステム モニター、問題解決者、および意思決定者としての役割を果たします。 HAS 環境における人間の監督者の認知活動は、(1) 一定期間に何をすべきかを計画する、(2) 一連の計画された目標を達成するための手順 (またはステップ) を考案する、(3) 進行状況を監視する、です。 (技術的)プロセスの、(4)人間と対話するコンピューターを通じてシステムを「教える」、(5)システムが異常に動作する場合、または制御の優先順位が変更された場合に介入する、(6)システムからのフィードバックを通じて、その影響について学習する監督措置 (Sheridan 1987)。

ハイブリッド システム設計

HAS における人間と機械の相互作用には、人間のオペレーターとインテリジェント マシン間の動的通信ループの利用が含まれます。人間と機械。 少なくとも、人間と自動化の間の相互作用は、ハイブリッド自動化システムの高度な複雑さ、および人間のオペレーターの関連する特性とタスク要件を反映する必要があります。 したがって、ハイブリッド自動化システムは、次の式の XNUMX 倍として正式に定義できます。

持っている = (T、U、C、E、I)

コラボレー T = タスク要件 (身体的および認知的); U = ユーザーの特性 (身体的および認知的); C = 自動化の特性 (コンピューター インターフェイスを含むハードウェアとソフトウェア); E = システムの環境; I = 上記の要素間の一連の相互作用。

相互作用のセット I 間のすべての可能な相互作用を具現化します T, U & C in E それらの性質や関連の強さに関係なく。 例えば、可能性のある対話の XNUMX つは、コンピュータのメモリに格納されたデータと、人間のオペレータの対応する知識 (もしあれば) との関係を含む可能性があります。 相互作用 I 基本的なもの (つまり、XNUMX 対 XNUMX の関連付けに限定されたもの) の場合もあれば、人間のオペレーター、目的のタスクを達成するために使用される特定のソフトウェア、およびコンピューターとの利用可能な物理インターフェイスとの間の相互作用を含むような複雑な場合もあります。

多くのハイブリッド自動化システムの設計者は、コンピューターベースのテクノロジーの一部として、高度な機械やその他の機器のコンピューター支援による統合に主に焦点を当てており、そのようなシステム内での効果的な人間の統合の最優先事項にはほとんど注意を払っていません。 したがって、現在のところ、コンピュータ統合(技術)システムの多くは、これらのシステムの効果的な制御と監視に必要なスキルと知識によって表される人間のオペレータの固有の能力と完全には互換性がありません。 このような非互換性は、人間、機械、および人間と機械の機能のすべてのレベルで発生し、個人および組織または施設全体の枠組みの中で定義できます。 たとえば、高度な製造企業における人と技術の統合の問題は、HAS 設計段階の早い段階で発生します。 これらの問題は、相互作用の複雑さに関する次のシステム統合モデルを使用して概念化できます。 I、システム設計者の間で、 D、人間のオペレーター、 H、または潜在的なシステム ユーザーとテクノロジー、 T:

私 (H, T) = F [ 私 (H, D), 私 (D, T)]

コラボレー I 特定の HAS の構造で発生する関連する相互作用を表します。 F 設計者、人間のオペレーター、およびテクノロジーの間の機能的な関係を示します。

上記のシステム統合モデルは、ユーザーとテクノロジー間の相互作用が、以前の 1 つの相互作用の統合の結果によって決定されるという事実を強調しています。 HASテクノロジー(機械とその統合のレベル)。 通常、設計者と技術の間には強い相互作用が存在しますが、設計者と人間のオペレーターの間に同等に強い相互関係が見られる例はごくわずかです。

最も自動化されたシステムであっても、運用レベルでのシステム パフォーマンスを成功させるには、人間の役割が依然として重要であると言えます。 Bainbridge (1983) は、自動化自体の性質に起因する HAS の操作に関連する一連の問題を次のように特定しました。

    1. オペレーターは「制御ループの外」にいます。 人間のオペレーターは、必要に応じて制御を実行するためにシステムに存在しますが、「制御ループの外」にいることで、緊急時にしばしば必要とされる手作業のスキルと長期的なシステム知識を維持できません。
    2. 時代遅れの「心象図」。 人間のオペレーターは、操作のイベントを綿密に追跡していない場合、システムの動作の変化に迅速に対応できない場合があります。 さらに、必要な対応を開始または実行するには、システムの機能に関するオペレータの知識またはイメージが不十分である可能性があります。
    3. 消える世代のスキル。 新しいオペレーターは、経験を通じて得られたコンピューター化されたシステムに関する十分な知識を習得できない可能性があり、したがって、必要なときに効果的な制御を行うことができません。
    4. オートマチックの権威。 必要なタスクを人間のオペレーターよりもうまく実行できるという理由でコンピューター化されたシステムが実装されている場合、「オペレーターは、自動化されたシステムによって正しいまたは誤った決定が行われていることをどのような基準で判断すべきか?」という疑問が生じます。
    5. 自動化による新たな「ヒューマンエラー」の出現。 自動化されたシステムは新しいタイプのエラーを引き起こし、その結果、従来の分析技術の枠内では分析できない事故が発生します。

             

            タスクの割り当て

            HAS 設計の重要な問題の 1 つは、人間のオペレーターに割り当てられる機能または責任の数と、コンピューターに割り当てられる機能または責任の数を決定することです。 一般に、考慮すべきタスク割り当ての問題には 2 つの基本的なクラスがあります。(3) 人間のスーパーバイザーとコンピューターのタスク割り当て、(XNUMX) 人間と人間のタスクの割り当て、(XNUMX) 監視コンピューターとコンピューターのタスクの割り当てです。 理想的には、基本的なシステム設計を開始する前に、構造化された割り当て手順を通じて割り当ての決定を行う必要があります。 残念ながら、このような体系的なプロセスはめったに不可能です。なぜなら、割り当てられる機能は、さらに検討する必要があるか、人間と機械のシステム コンポーネント間で対話的に実行する必要があるためです。つまり、監視制御パラダイムの適用を通じて実行されます。 ハイブリッド自動システムにおけるタスクの割り当ては、人間とコンピューターの監督責任の範囲に焦点を当て、人間のオペレーターとコンピューター化された意思決定支援システムとの間の相互作用の性質を考慮する必要があります。 機械と人間の入出力インターフェース間の情報伝達の手段、およびソフトウェアと人間の認知的問題解決能力との互換性も考慮する必要があります。

            ハイブリッド自動化システムの設計と管理に対する従来のアプローチでは、ワーカーは決定論的な入出力システムと見なされ、人間の行動の目的論的性質、つまり、目標指向の行動の獲得に依存することを無視する傾向がありました。関連情報と目標の選択 (Goodstein et al. 1988)。 成功するためには、高度なハイブリッド自動システムの設計と管理は、特定のタスクに必要な人間の精神機能の説明に基づいている必要があります。 「認知工学」アプローチ (以下でさらに説明) は、人間と機械の (ハイブリッド) システムは、人間の精神プロセスの観点から考え、設計し、分析し、評価する必要があることを提案しています (つまり、適応システムのオペレーターの精神モデルが取り込まれます)。アカウント)。 以下は、Corbett (1988) によって策定された、HAS の設計と運用に対する人間中心のアプローチの要件です。

              1. 互換性. システムの操作には、既存のスキルと無関係なスキルは必要ありませんが、既存のスキルを進化させる必要があります。 人間のオペレータは、インタフェースがユーザの以前の知識とスキルに適合するように、従来の慣行と互換性のある情報を入力および受信する必要があります。
              2. 透明性. システムを理解せずに制御することはできません。 したがって、学習を促進するには、人間のオペレータがシステムの制御ソフトウェアの内部プロセスを「見る」ことができなければなりません。 透過的なシステムにより、ユーザーは、システムが実行できる意思決定および制御機能の内部モデルを簡単に構築できます。
              3. 最小限の衝撃. システムは、システムの現在の状態を詳述する、利用可能な情報に照らして、オペレーターが予期しないと判断したことを実行すべきではありません。
              4. 妨害制御. 不確実なタスク (選択構造分析によって定義される) は、コンピューターの意思決定をサポートする人間のオペレーターの制御下にある必要があります。
              5. 誤りやすさ. 人間のオペレーターの暗黙のスキルと知識は、システムの外に設計されるべきではありません。 オペレーターは、ソフトウェアが誤った操作を指示するのを無力に見守るような立場に置かれてはなりません。
              6. エラー可逆性. ソフトウェアは、特定の操作または戦略の予想される結果を人間のオペレーターに知らせるために、十分な情報のフィードフォワードを提供する必要があります。
              7. 操作の柔軟性. システムは、制御ソフトウェアのサポートを失うことなく、操作戦略を変更することで、人間のオペレーターに要件とリソース制限をトレードオフする自由を提供する必要があります。

               

              認知ヒューマンファクター工学

              認知的ヒューマン ファクター エンジニアリングは、人間のオペレーターが職場で意思決定を行い、問題を解決し、計画を策定し、新しいスキルを習得する方法に焦点を当てています (Hollnagel and Woods 1983)。 任意の HAS で機能する人間のオペレーターの役割は、Rasmussen のスキーム (1983) を使用して XNUMX つの主要なカテゴリに分類できます。

                1. スキルベースの行動 スムーズで自動化された高度に統合された行動パターンとして、意識的な制御なしに行われる行為または活動中に実行される感覚運動パフォーマンスです。 このカテゴリに分類される人間の活動は、特定の状況のた​​めに構成された一連の熟練した行為であると見なされます。 したがって、スキルベースの行動は、多かれ少なかれ保存された行動パターンまたは時空間ドメインでの事前にプログラムされた指示の表現です。
                2. ルールベースの動作 格納されたルールまたは手順によるフィードフォワード制御によって構築されたパフォーマンスの目標指向のカテゴリです。つまり、慣れ親しんだ作業状況で一連のサブルーチンを構成できる順序付けられたパフォーマンスです。 ルールは通常、以前の経験から選択され、環境の動作を制約する機能特性を反映しています。 ルールベースのパフォーマンスは、関連するルールの採用に関する明確なノウハウに基づいています。 意思決定データ セットは、状態、イベント、または状況の認識と識別のための参照で構成されます。
                3. 知識に基づく行動 環境の知識と個人の目的に基づいて目標が明確に定式化される、目標制御パフォーマンスのカテゴリです。 システムの内部構造は「メンタルモデル」で表されます。 この種の行動は、なじみのない、したがって不確実な制御条件下でのさまざまな計画の開発とテストを可能にし、スキルやルールが利用できないか不十分であり、代わりに問題解決と計画が求められる必要がある場合に必要です。

                     

                    HAS の設計と管理では、その機能を説明するワーカーの内部モデルとシステム操作の互換性を確保するために、ワーカーの認知特性を考慮する必要があります。 その結果、システムの記述レベルは、人間の機能のスキルベースからルールベースおよび知識ベースの側面に移行する必要があり、認知タスク分析の適切な方法を使用して、システムのオペレーターのモデルを識別する必要があります。 HAS の開発における関連する問題は、人間のオペレーターと自動化されたシステム コンポーネントとの間の、物理レベルと認知レベルの両方での情報伝達手段の設計です。 このような情報転送は、システム操作のさまざまなレベルで利用される情報のモード、つまり、視覚、口頭、触覚、またはハイブリッドと互換性がある必要があります。 この情報の互換性により、さまざまな形式の情報転送で、媒体と情報の性質との間の非互換性が最小限に抑えられます。 たとえば、視覚的表示は空間情報の伝達に最適ですが、聴覚入力はテキスト情報の伝達に使用できます。

                    多くの場合、人間のオペレーターは、特定の種類のヒューマンマシン インターフェイスに関連する経験、トレーニング、および指示に従って、システムの動作と機能を記述する内部モデルを開発します。 この現実に照らして、HAS の設計者は、機械 (または他の人工システム) に、人間のオペレーターの身体的および認知的特性のモデル、つまりシステムのオペレーターのイメージを組み込むことを試みる必要があります (Hollnagel and Woods 1983)。 . HAS の設計者は、システム記述における抽象化のレベルと、人間のオペレーターの行動に関連するさまざまなカテゴリも考慮する必要があります。 作業環境における人間の機能をモデル化するためのこれらの抽象化レベルは次のとおりです (Rasmussen 1983): (1) 物理的形態 (解剖学的構造)、(2) 身体機能 (生理学的機能)、(3) 一般化された機能 (心理的メカニズムおよび認知機能) (4) 抽象的機能 (情報処理) および (5) 機能的目的 (価値構造、神話、宗教、人間の相互作用)。 これらの XNUMX つのレベルは、効果的な HAS パフォーマンスを確保するために、設計者が同時に考慮する必要があります。

                    システム ソフトウェア設計

                    コンピュータ ソフトウェアはあらゆる HAS 環境の主要コンポーネントであるため、設計、テスト、操作、変更を含むソフトウェア開発、およびソフトウェアの信頼性の問題も、HAS 開発の初期段階で考慮する必要があります。 これにより、ソフトウェア エラーの検出と除去のコストを削減できるはずです。 ただし、人間の作業パフォーマンス、関連する作業負荷、および潜在的なエラーをモデル化する能力には限界があるため、HAS の人的コンポーネントの信頼性を推定することは困難です。 過度または不十分な精神的負荷は、それぞれ情報過多と退屈につながり、人間のパフォーマンスを低下させ、エラーや事故の可能性を高める可能性があります。 HAS の設計者は、これらの問題を解決するために、人工知能技術を利用する適応型インターフェースを採用する必要があります。 人間と機械の互換性に加えて、人間の能力を超える可能性がある場合に生じるストレス レベルを軽減するために、人間と機械の相互の適応性の問題を考慮する必要があります。

                    多くのハイブリッド自動化システムは非常に複雑であるため、これらのシステムのハードウェア、ソフトウェア、操作手順、および人間と機械の相互作用に関連する潜在的な危険を特定することは、怪我や機器の損傷を減らすことを目的とした取り組みの成功にとって重要になります。 . コンピュータ統合製造技術 (CIM) などの複雑なハイブリッド自動化システムに関連する安全と健康上の危険は、システムの設計と運用の最も重要な側面の XNUMX つであることは明らかです。

                    システムの安全性の問題

                    ハイブリッド自動化環境では、システム障害条件下で制御ソフトウェアが不安定な動作をする可能性が非常に高いため、新世代の事故リスクが生じます。 ハイブリッド自動化システムがより用途が広く複雑になるにつれて、起動およびシャットダウンの問題やシステム制御の逸脱などのシステム障害により、人間のオペレーターに対する深刻な危険の可能性が大幅に増加する可能性があります。 皮肉なことに、多くの異常な状況では、オペレーターは通常、自動化された安全サブシステムの適切な機能に頼っていますが、これは重傷のリスクを高める可能性があります。 たとえば、技術制御システムの誤動作に関連する事故の研究では、事故シーケンスの約 XNUMX 分の XNUMX に、妨害されたシステムの制御ループへの人間の介入が含まれていることが示されました。

                    従来の安全対策は、HAS 環境のニーズに簡単に適応させることはできないため、これらのシステムの固有の特性を考慮して、負傷管理と事故防止戦略を再検討する必要があります。 たとえば、高度な製造技術の分野では、多くのプロセスは、人間のオペレーターが容易に予測できないかなりの量のエネルギーの流れが存在することを特徴としています。 さらに、安全上の問題は通常、サブシステム間のインターフェイスで発生するか、システム障害が 1991 つのサブシステムから別のサブシステムに進行するときに発生します。 国際標準化機構 (ISO 45) によると、産業オートメーションに起因する危険に関連するリスクは、特定の製造システムに組み込まれた産業機械の種類と、システムの設置、プログラム、操作、保守の方法によって異なります。そして修理。 たとえば、スウェーデンでのロボット関連の事故を他のタイプの事故と比較すると、ロボットは高度な製造業で使用される最も危険な産業機械である可能性があることが示されました。 産業用ロボットの推定事故率は、50 ロボット年あたり 23 件の重大事故であり、1980 機械年あたり 1985 件の事故であると報告されている産業用プレスの事故率よりも高くなっています。 ここで注目すべきは、XNUMX 年から XNUMX 年にかけて、米国の産業用プレスが金属加工機械関連の全死亡者数の約 XNUMX% を占めており、致命的ではない怪我の重症度頻度の積に関しては動力プレスが第 XNUMX 位にランクされていることです。

                    高度な製造技術の領域では、人間のオペレータの視野外で作業者が複雑に位置を変えるため、作業者にとって危険な可動部品が多数あります。 コンピューター統合製造における急速な技術開発により、高度な製造技術が労働者に及ぼす影響を研究する必要性が非常に高まっています。 このような HAS 環境のさまざまな要素によって引き起こされる危険を特定するには、過去の事故を注意深く分析する必要があります。 残念ながら、ロボットの使用に関連する事故は、人間が操作する機械に関連する事故の報告から切り分けるのが難しいため、記録されていない事故の割合が高い可能性があります。 日本の労働安全衛生規則では、「産業用ロボットは現在、信頼できる安全手段を備えておらず、その使用を規制しない限り、労働者を保護することはできない」と述べています。 例えば、日本の労働省が実施した産業用ロボットに関連する事故の調査結果 (杉本 1987) は、調査対象の 190 の工場 (4,341 台の作業用ロボット) で 300 件のロボット関連の障害があり、そのうち 37 件が安全でない行為の一部が危うい事故につながり、9 件が人身事故、2 件が死亡事故でした。 他の研究の結果は、コンピュータソフトウェアの安全機能だけではシステムハードウェアをフェールセーフにすることはできず、システムコントローラの信頼性が常に高いとは限らないため、コンピュータベースの自動化が必ずしも全体的な安全レベルを向上させるとは限らないことを示しています。 さらに、複雑な HAS では、危険な状態を検出し、適切な危険回避戦略を実行するために、安全センシング デバイスだけに依存することはできません。

                    人間の健康に対する自動化の影響

                    前述のように、多くの HAS 環境における作業者の活動は、基本的に監視制御、監視、システム サポート、および保守です。 これらのアクティビティは、次の 1 つの基本グループに分類することもできます。(2) プログラミング タスク、つまり、機械の操作をガイドおよび指示する情報のエンコード、(3) HAS の生産および制御コンポーネントの監視、(4) 防止のための HAS コンポーネントのメンテナンスHAS が労働者の幸福に与える影響に関する最近の多くのレビューでは、製造エリアで HAS を利用することで、重くて危険な作業を排除できる可能性があると結論付けられています。 、HAS環境での作業は、労働者にとって不満であり、ストレスになる可能性があります. ストレスの原因には、多くの HAS アプリケーションで必要とされる常時監視、割り当てられた活動の範囲の制限、システム設計によって許容される作業者の相互作用のレベルの低さ、および機器の予測不可能で制御不能な性質に関連する安全上の危険が含まれます。 プログラミングや保守活動に携わる一部の労働者は、自分たちの幸福にプラスの影響を与える可能性のある挑戦の要素を感じていますが、これらの影響は、これらの活動の複雑で要求の厳しい性質やプレッシャーによって相殺されることがよくあります。これらの活動を迅速に完了するために管理者によって行使されます。

                    一部の HAS 環境では、人間のオペレーターは、通常の動作状態では従来のエネルギー源 (作業の流れと機械の動き) から切り離されていますが、自動化されたシステムの多くのタスクは、他のエネルギー源と直接接触して実行する必要があります。 さまざまな HAS コンポーネントの数が増え続けているため、特に作業員がもはや作業についていけなくなっているという事実を考慮して、作業員の快適性と安全性、および効果的な怪我防止対策の開発に特に重点を置く必要があります。そのようなシステムの精巧さと複雑さ。

                    コンピューター統合製造システムにおける負傷管理と作業員の安全に対する現在のニーズを満たすために、産業オートメーション システムに関する ISO 委員会は、「統合製造システムの安全性」(1991 年) というタイトルの新しい安全規格を提案しました。 この新しい国際規格は、産業用機械および関連機器を組み込んだ統合製造システムに存在する特定の危険性を認識して開発されたもので、統合製造システムで作業中またはそれに隣接している間に人員が負傷する可能性を最小限に抑えることを目的としています。 この規格によって特定された CIM の人間のオペレーターに対する潜在的な危険の主な原因を図 1 に示します。

                    図 1. コンピューター統合製造 (CIM) における主な危険源 (ISO 1991 以降)

                    ACC250T1

                    ヒューマンエラーとシステムエラー

                    一般に、HAS 内の危険は、システム自体、物理環境に存在する他の機器との関連、または人間とシステムとの相互作用から発生する可能性があります。 事故は、危険な状況下で発生する可能性がある人間と機械の相互作用のいくつかの結果の 1992 つにすぎません。 ニアアクシデントと損害インシデントは、はるかに一般的です (Zimolong and Duda 1)。 エラーが発生すると、次のいずれかの結果が生じる可能性があります。(2) エラーに気付かないままになる、(3) システムがエラーを補正できる、(4) エラーが機械の故障やシステム停止につながる、または (XNUMX) ) 誤りが事故につながります。

                    重大なインシデントにつながるすべての人的エラーが実際の事故を引き起こすわけではないため、次のように結果のカテゴリをさらに区別することが適切です。 (1) 事故 (すなわち、けが、損傷、または損失をもたらす危険な事象) (2) 損傷事故 (すなわち、ある種の物的損害のみをもたらす危険な事象) (3)ニアアクシデントまたは「ニアミス」(つまり、けが、損傷、または損失が偶然にわずかな差で回避された危険なイベント)および(4)潜在的な事故の存在(つまり、けが、破損につながる可能性のある危険なイベント) 、または紛失の可能性がありますが、状況により、近い事故にも至りませんでした)。

                    HAS におけるヒューマン エラーの XNUMX つの基本的なタイプを区別できます。

                      1. スキルベースのスリップとラプス
                      2. ルールベースのミス
                      3. 知識ベースの間違い。

                           

                          Reason (1990) によって考案されたこの分類法は、上記の人間のパフォーマンスに関する Rasmussen のスキル-ルール-知識分類の修正に基づいています。 スキルベースのレベルでは、人間のパフォーマンスは、時空間ドメインのアナログ構造として表される、事前にプログラムされた命令の格納されたパターンによって管理されます。 ルールベースのレベルは、ソリューションが格納されたルール (必要に応じてアクセスまたは生成されるため、「プロダクション」と呼ばれる) によって管理される、よく知られた問題に取り組むのに適用できます。 これらのルールでは、適切な対応を必要とする特定の状況が発生した場合に、特定の診断 (または判断) を行うか、特定の是正措置を講じる必要があります。 このレベルでは、ヒューマンエラーは通常、状況の誤分類に関連しており、間違ったルールの適用や、結果として生じる判断や手順の誤った想起につながります。 知識ベースのエラーは、意識的な分析プロセスと保存された知識を使用して、「オンライン」で (特定の瞬間に) アクションを計画する必要がある新しい状況で発生します。 このレベルのエラーは、リソースの制限と不完全または不正確な知識から発生します。

                          Reason (1990) によって提案された一般的なエラー モデリング システム (GEMS) は、基本的なヒューマン エラー タイプの起源を突き止めようとするもので、HAS における人間の行動の全体的な分類法を導き出すために使用できます。 GEMS は、エラー研究の 1 つの異なる領域を統合しようとしています。(2) 実行の失敗および/またはストレージの失敗によりアクションが現在の意図から逸脱するスリップと失効、および (XNUMX) アクションが計画どおりに実行される可能性があるミス。しかし、その計画は望ましい結果を達成するには不十分です。

                          CIM におけるリスク評価と予防

                          ISO (1991) によると、CIM におけるリスク評価は、すべてのリスクを最小限に抑え、安全な作業環境を作成し、安全な作業環境を確保するためのプログラムまたは計画の開発における安全目標と対策を決定するための基礎として役立つように実行する必要があります。職員の安全と健康も。 たとえば、製造ベースの HAS 環境における作業上の危険は、次のように特徴付けることができます。 (1) 作業が単調であり、(2) コンピュータ統合製造システム内で発生する事故はしばしば重大です。 特定された各ハザードは、そのリスクを評価する必要があり、そのリスクを最小限に抑えるために適切な安全対策を決定して実施する必要があります。 ハザードは、特定のプロセスの次の側面すべてに関しても確認する必要があります。 単一ユニット間の相互作用; システムの操作セクション。 プログラミング、検証、トラブルシューティング、メンテナンス、または修理などの操作のために通常の保護手段が一時停止される条件を含む、意図されたすべての動作モードおよび条件での完全なシステムの動作。

                          ISO (1991) の CIM の安全戦略の設計段階には、次のものが含まれます。

                            • システムパラメータの制限の仕様
                            • 安全戦略の適用
                            • ハザードの識別
                            • 関連するリスクの評価
                            • ハザードの除去またはリスクの軽減を実行可能な限り行う。

                                     

                                    システムの安全仕様には、次のものが含まれている必要があります。

                                      • システム機能の説明
                                      • システムのレイアウトおよび/またはモデル
                                      • さまざまな作業プロセスと手作業の相互作用を調査するために実施された調査の結果
                                      • 手動操作を含むプロセス シーケンスの分析
                                      • コンベアまたは輸送ラインとのインターフェースの説明
                                      • プロセス フローチャート
                                      • 基礎計画
                                      • 供給・廃棄装置の計画
                                      • 材料の供給と廃棄に必要なスペースの決定
                                      • 利用可能な事故記録。

                                                         

                                                        ISO (1991) に従って、体系的な安全計画手順の設計において、安全な CIM システム操作を確保するために必要なすべての要件を考慮する必要があります。 これには、危険を効果的に軽減するためのすべての保護対策が含まれ、以下が必要です。

                                                          • ヒューマンマシンインターフェースの統合
                                                          • システムに取り組んでいる人々の位置(時間と空間における)の早期定義
                                                          • 孤立作業の削減方法を早期に検討
                                                          • 環境面への配慮。

                                                               

                                                              安全計画手順では、とりわけ、CIM の次の安全問題に対処する必要があります。

                                                                • システムの動作モードの選択. 制御装置は、少なくとも次の動作モードを備えている必要があります。どのシステムまたはリモートの手動による危険な状況の開始が防止されているか (たとえば、ローカル操作の場合、または危険な状況への電源の分離または機械的な遮断の場合)。
                                                                • トレーニング、設置、試運転、および機能テスト. 要員が危険ゾーンにいる必要がある場合は、制御システムに次の安全対策を講じる必要があります。 ) 可動非常停止。
                                                                • システムのプログラミング、メンテナンス、修理における安全性. プログラミング中は、プログラマーだけが保護された空間に立ち入ることができます。 システムは、システムの意図した運用を確実に継続するために、検査および保守手順を整備する必要があります。 検査および保守プログラムでは、システムの供給者の推奨事項と、システムのさまざまな要素の供給者の推奨事項を考慮に入れる必要があります。 システムのメンテナンスや修理を行う担当者は、必要なタスクを実行するために必要な手順についてトレーニングを受ける必要があることは言うまでもありません。
                                                                • 障害の除去. 保護されたスペース内から障害を除去する必要がある場合は、安全な切断後に (または、可能であれば、ロックアウト メカニズムが作動した後に) 実行する必要があります。 危険な状況の誤った開始に対する追加の対策を講じる必要があります。 システムのセクションまたは隣接するシステムまたは機械の機械で障害を除去する際に危険が発生する可能性がある場合、これらも動作を停止し、予期しない起動から保護する必要があります。 指示および警告標識を使用して、完全には観察できないシステム コンポーネントの障害の除去に注意を払う必要があります。

                                                                       

                                                                      システム障害制御

                                                                      コンピューター統合製造エリアで使用される多くの HAS 設備では、通常、制御、プログラミング、保守、事前設定、サービス、またはトラブルシューティングのタスクのために人間のオペレーターが必要です。 システムに障害が発生すると、作業者が危険区域に入る必要が生じる状況が発生します。 この点で、CIM における人間の干渉の最も重要な理由は依然として妨害であると考えられます。これは、システムが制限区域の外からプログラムされることが多いためです。 ほとんどのリスクはシステムのトラブルシューティング段階で発生するため、CIM の安全性に関する最も重要な問題の XNUMX つは、妨害を防止することです。 障害の回避は、安全性と費用対効果の両方に関して共通の目的です。

                                                                      CIM システムの障害とは、システムの状態または機能が、計画された状態または望ましい状態から逸脱することです。 生産性に加えて、CIM の操作中の障害は、システムの操作に関与する人々の安全に直接影響します。 フィンランドの研究 (Kuivanen 1990) は、自動製造における障害の約半分が労働者の安全を低下させることを示しました。 障害の主な原因は、システム設計のエラー (34%)、システム コンポーネントの障害 (31%)、人的エラー (20%)、および外部要因 (15%) でした。 機械の故障の多くは制御系が原因であり、制御系ではセンサー系の故障が最も多かった。 CIM 設備の安全レベルを高める効果的な方法は、障害の数を減らすことです。 障害のあるシステムでの人間の行動は、HAS 環境での事故の発生を防ぎますが、事故の原因にもなります。 たとえば、技術制御システムの誤動作に関連する事故の研究では、事故シーケンスの約 XNUMX 分の XNUMX に、妨害されたシステムの制御ループへの人間の介入が含まれていることが示されました。

                                                                      CIM 障害防止に関する主な研究課題は、(1) 障害の主な原因、(2) 信頼性の低いコンポーネントと機能、(3) 安全性に対する障害の影響、(4) システムの機能に対する障害の影響、( 5) 物的損害および (6) 修理。 HAS の安全性は、技術、人、および組織を十分に考慮して、システム設計段階の早い段階で計画し、HAS 技術計画プロセス全体の不可欠な部分にする必要があります。

                                                                      HAS デザイン: 今後の課題

                                                                      前述のハイブリッド自動化システムの利点を最大限に引き出すには、人、組織、技術の統合に基づく、より広いシステム開発のビジョンが必要です。 ここでは、主に XNUMX つのタイプのシステム統合を適用する必要があります。

                                                                        1. 人々の統合、それらの間の効果的なコミュニケーションを保証することによって
                                                                        2. 人間とコンピューターの統合、適切なインターフェイスと人とコンピューター間の相互作用を設計することによって
                                                                        3. 技術統合、マシン間の効果的なインターフェースと相互作用を保証することによって。

                                                                             

                                                                            ハイブリッド自動化システムの最小設計要件には、(1) 柔軟性、(2) 動的適応、(3) 応答性の向上、および (4) 人々に動機を与え、スキル、判断、および経験をより有効に活用する必要性を含める必要があります。 . 上記では、システムのあらゆるレベルの人々がさまざまなシステム制御状況に作業戦略を適応できるように、HAS の組織構造、作業慣行、および技術を開発することも必要です。 したがって、HAS の組織、作業慣行、および技術は、オープン システムとして設計および開発する必要があります (Kidd 1994)。

                                                                            オープン ハイブリッド自動化システム (OHAS) は、その環境から入力を受け取り、その環境に出力を送信するシステムです。 オープン システムの考え方は、システム アーキテクチャや組織構造だけでなく、作業慣行、ヒューマン コンピュータ インターフェース、人とテクノロジーの関係にも適用できます。たとえば、スケジューリング システム、制御システム、意思決定支援システム。 オープン システムは、人々がシステムの操作モードを自由に定義できる場合にも適応型です。 たとえば、高度な製造の分野では、オープン ハイブリッド自動化システムの要件は、次の概念を通じて実現できます。 人間とコンピューターが統合した製造業 (HCIM)。 この観点から、テクノロジーの設計は、以下を含む全体的な HCIM システム アーキテクチャに対処する必要があります。(1) グループのネットワークに関する考慮事項、(2) 各グループの構造、(3) グループ間の相互作用、(4)サポートするソフトウェアの性質、および (5) サポートするソフトウェア モジュール間の技術的なコミュニケーションと統合の必要性。

                                                                            クローズドシステムとは対照的に、適応型ハイブリッド自動システムは、人間のオペレーターができることを制限しません。 HAS の設計者の役割は、ユーザーの個人的な好みを満たし、ユーザーが最も適切と考える方法で作業できるようにするシステムを作成することです。 ユーザー入力を許可するための前提条件は、適応設計方法論の開発です。つまり、OHAS は、設計プロセスでの実装を可能にするコンピューター支援技術を可能にします。 アダプティブ デザインの方法論を開発する必要性は、実際に OHAS の概念を実現するための差し迫った要件の XNUMX つです。 新しいレベルの適応型人間監視制御技術も開発する必要があります。 このような技術により、人間のオペレーターは、他の方法では見えない HAS 機能の制御システムを「見抜く」ことができるようになるはずです。たとえば、システムの制御と操作の各ポイントでインタラクティブな高速ビデオ システムを適用することによって可能になります。 最後に、ハイブリッド自動化システムにおける人間の役割と人間の機能のインテリジェントで適応性の高いコンピューターベースのサポートを開発するための方法論も非常に必要とされています。

                                                                             

                                                                            戻る

                                                                            免責事項: ILO は、この Web ポータルに掲載されているコンテンツが英語以外の言語で提示されていることについて責任を負いません。英語は、オリジナル コンテンツの最初の制作およびピア レビューに使用される言語です。その後、特定の統計が更新されていません。百科事典の第 4 版 (1998 年) の作成。

                                                                            内容