Karwowski, Waldemar

Karwowski, Waldemar

Indirizzo:  Centro per l'ergonomia industriale, Università di Louisville, Louisville, KY 402292

Paese: Stati Uniti

Telefono: 1 (502) 852-7173

Fax: 1 (502) 852-7397

E-mail: w0karw03@ulkyvm.louisville.edu

Posizioni passate: Fulbright Fellow, Visiting Professor, Tampere University of Technology, Tampere, Finlandia

Educazione: MS, 1978, Università tecnica di Wroclaw, Polonia; PhD, 1982, Ingegneria Industriale/Ergonomia, Texas Tech University, Lubbock

 

Un sistema automatizzato ibrido (HAS) mira a integrare le capacità delle macchine artificialmente intelligenti (basate sulla tecnologia informatica) con le capacità delle persone che interagiscono con queste macchine nel corso delle loro attività lavorative. Le principali preoccupazioni dell'utilizzo degli HAS riguardano il modo in cui i sottosistemi uomo e macchina dovrebbero essere progettati al fine di sfruttare al meglio le conoscenze e le capacità di entrambe le parti del sistema ibrido e come gli operatori umani e i componenti della macchina dovrebbero interagire tra loro per garantire che le loro funzioni si completino a vicenda. Molti sistemi automatizzati ibridi si sono evoluti come prodotti di applicazioni di moderne metodologie basate sull'informazione e sul controllo per automatizzare e integrare diverse funzioni di sistemi tecnologici spesso complessi. HAS è stato originariamente identificato con l'introduzione di sistemi basati su computer utilizzati nella progettazione e nel funzionamento di sistemi di controllo in tempo reale per reattori nucleari, per impianti di lavorazione chimica e per la tecnologia di produzione di componenti discreti. Gli HAS possono ora essere trovati anche in molte industrie di servizi, come il controllo del traffico aereo e le procedure di navigazione aerea nell'area dell'aviazione civile, e nella progettazione e nell'uso di veicoli intelligenti e sistemi di navigazione autostradale nel trasporto su strada.

Con i continui progressi nell'automazione basata su computer, la natura dei compiti umani nei moderni sistemi tecnologici si sposta da quelli che richiedono abilità percettivo-motorie a quelli che richiedono attività cognitive, necessarie per la risoluzione dei problemi, per il processo decisionale nel monitoraggio del sistema e per compiti di controllo di vigilanza. Ad esempio, gli operatori umani nei sistemi di produzione integrati da computer agiscono principalmente come monitor di sistema, risolutori di problemi e decisori. Le attività cognitive del supervisore umano in qualsiasi ambiente HAS sono (1) pianificare cosa dovrebbe essere fatto per un dato periodo di tempo, (2) ideare procedure (o passaggi) per raggiungere l'insieme di obiettivi pianificati, (3) monitorare i progressi dei processi (tecnologici), (4) "insegnare" al sistema attraverso un computer umano-interattivo, (5) intervenire se il sistema si comporta in modo anomalo o se le priorità di controllo cambiano e (6) apprendere attraverso il feedback del sistema sull'impatto dei azioni di supervisione (Sheridan 1987).

Progettazione di sistemi ibridi

Le interazioni uomo-macchina in un HAS comportano l'utilizzo di circuiti di comunicazione dinamici tra gli operatori umani e le macchine intelligenti, un processo che include il rilevamento e l'elaborazione delle informazioni e l'avvio e l'esecuzione di attività di controllo e processo decisionale, all'interno di una data struttura di allocazione delle funzioni tra uomini e macchine. Come minimo, le interazioni tra le persone e l'automazione dovrebbero riflettere l'elevata complessità dei sistemi automatizzati ibridi, nonché le caratteristiche rilevanti degli operatori umani e i requisiti delle attività. Pertanto, l'automazione ibrida può essere formalmente definita come quintupla nella seguente formula:

HA = (T, U, C, E, I)

where T = requisiti del compito (fisici e cognitivi); U = caratteristiche dell'utente (fisiche e cognitive); C = le caratteristiche di automazione (hardware e software, comprese le interfacce informatiche); E = l'ambiente del sistema; I = un insieme di interazioni tra gli elementi di cui sopra.

L'insieme delle interazioni I incarna tutte le possibili interazioni tra T, U ed C in E indipendentemente dalla loro natura o forza associativa. Ad esempio, una delle possibili interazioni potrebbe comportare la relazione dei dati immagazzinati nella memoria del computer con la corrispondente conoscenza, se presente, dell'operatore umano. Le interazioni I può essere elementare (cioè limitato a un'associazione uno a uno) o complesso, come comportare interazioni tra l'operatore umano, il particolare software utilizzato per raggiungere l'attività desiderata e l'interfaccia fisica disponibile con il computer.

I progettisti di molti sistemi automatizzati ibridi si concentrano principalmente sull'integrazione assistita da computer di macchine sofisticate e altre apparecchiature come parti della tecnologia basata su computer, prestando raramente molta attenzione alla necessità fondamentale di un'effettiva integrazione umana all'interno di tali sistemi. Pertanto, allo stato attuale, molti dei sistemi informatici integrati (tecnologici) non sono pienamente compatibili con le capacità intrinseche degli operatori umani espresse dalle competenze e dalle conoscenze necessarie per l'efficace controllo e monitoraggio di tali sistemi. Tale incompatibilità sorge a tutti i livelli del funzionamento umano, macchina e uomo-macchina e può essere definita all'interno di un quadro dell'individuo e dell'intera organizzazione o struttura. Ad esempio, i problemi di integrazione di persone e tecnologia nelle imprese manifatturiere avanzate si verificano all'inizio della fase di progettazione HAS. Questi problemi possono essere concettualizzati utilizzando il seguente modello di integrazione del sistema della complessità delle interazioni, I, tra i progettisti di sistema, D, operatori umani, H, o potenziali utenti del sistema e tecnologia, T:

io (H, T) = FA [ MI (LA, RE), MI (RE, MI)]

where I sta per le interazioni rilevanti che si svolgono in una data struttura di HAS, mentre F indica le relazioni funzionali tra progettisti, operatori umani e tecnologia.

Il modello di integrazione del sistema di cui sopra evidenzia il fatto che le interazioni tra gli utenti e la tecnologia sono determinate dal risultato dell'integrazione delle due interazioni precedenti, vale a dire (1) quelle tra i progettisti HAS e i potenziali utenti e (2) quelle tra i progettisti e la tecnologia HAS (a livello di macchine e loro integrazione). Va notato che anche se tipicamente esistono forti interazioni tra designer e tecnologia, si possono trovare solo pochissimi esempi di interrelazioni altrettanto forti tra designer e operatori umani.

Si può sostenere che anche nei sistemi più automatizzati, il ruolo umano rimane fondamentale per il successo delle prestazioni del sistema a livello operativo. Bainbridge (1983) ha identificato una serie di problemi relativi al funzionamento dell'HAS che sono dovuti alla natura dell'automazione stessa, come segue:

    1. Operatori “fuori dal giro di controllo”. Gli operatori umani sono presenti nel sistema per esercitare il controllo quando necessario, ma essendo "fuori dal circuito di controllo" non riescono a mantenere le capacità manuali e la conoscenza del sistema a lungo termine che sono spesso richieste in caso di emergenza.
    2. "Immagine mentale" obsoleta. Gli operatori umani potrebbero non essere in grado di rispondere rapidamente ai cambiamenti nel comportamento del sistema se non hanno seguito da vicino gli eventi del suo funzionamento. Inoltre, la conoscenza o l'immagine mentale degli operatori del funzionamento del sistema può essere inadeguata per avviare o esercitare le risposte richieste.
    3. Generazioni di abilità che scompaiono. I nuovi operatori potrebbero non essere in grado di acquisire una conoscenza sufficiente del sistema informatico acquisita attraverso l'esperienza e, pertanto, non saranno in grado di esercitare un controllo effettivo quando necessario.
    4. Autorità degli automatici. Se il sistema computerizzato è stato implementato perché può svolgere i compiti richiesti meglio dell'operatore umano, sorge la domanda: "Su quale base l'operatore dovrebbe decidere che le decisioni corrette o errate vengono prese dai sistemi automatizzati?"
    5. Emersione delle nuove tipologie di “errori umani” dovuti all'automazione. I sistemi automatizzati portano a nuovi tipi di errori e, di conseguenza, incidenti che non possono essere analizzati nell'ambito delle tradizionali tecniche di analisi.

             

            Assegnazione dei compiti

            Una delle questioni importanti per la progettazione HAS è determinare quante e quali funzioni o responsabilità dovrebbero essere assegnate agli operatori umani e quali e quante ai computer. In generale, ci sono tre classi fondamentali di problemi di allocazione dei compiti che dovrebbero essere considerati: (1) l'allocazione dei compiti umano-supervisore-computer, (2) l'allocazione dei compiti umano-umano e (3) l'allocazione dei compiti di supervisione computer-computer. Idealmente, le decisioni di allocazione dovrebbero essere prese attraverso una procedura di allocazione strutturata prima che inizi la progettazione di base del sistema. Sfortunatamente un tale processo sistematico è raramente possibile, poiché le funzioni da allocare possono richiedere un ulteriore esame o devono essere eseguite in modo interattivo tra i componenti del sistema uomo e macchina, ovvero attraverso l'applicazione del paradigma del controllo di supervisione. L'assegnazione dei compiti nei sistemi automatizzati ibridi dovrebbe concentrarsi sull'estensione delle responsabilità di supervisione umana e informatica e dovrebbe considerare la natura delle interazioni tra l'operatore umano e i sistemi computerizzati di supporto alle decisioni. Dovrebbero essere considerati anche i mezzi di trasferimento delle informazioni tra le macchine e le interfacce umane di input-output e la compatibilità del software con le capacità cognitive umane di risoluzione dei problemi.

            Negli approcci tradizionali alla progettazione e alla gestione di sistemi automatizzati ibridi, i lavoratori erano considerati come sistemi di input-output deterministici e si tendeva a ignorare la natura teleologica del comportamento umano, ovvero il comportamento orientato all'obiettivo che si basa sull'acquisizione di informazioni rilevanti e la selezione degli obiettivi (Goodstein et al. 1988). Per avere successo, la progettazione e la gestione di sistemi automatizzati ibridi avanzati devono basarsi su una descrizione delle funzioni mentali umane necessarie per un compito specifico. L'approccio di "ingegneria cognitiva" (descritto più avanti) propone che i sistemi uomo-macchina (ibridi) debbano essere concepiti, progettati, analizzati e valutati in termini di processi mentali umani (vale a dire, il modello mentale dell'operatore dei sistemi adattivi viene preso in considerazione account). I seguenti sono i requisiti dell'approccio incentrato sull'uomo alla progettazione e al funzionamento degli HAS come formulato da Corbett (1988):

              1. Compatibilità. Il funzionamento del sistema non dovrebbe richiedere competenze non correlate alle competenze esistenti, ma dovrebbe consentire l'evoluzione delle competenze esistenti. L'operatore umano dovrebbe inserire e ricevere informazioni compatibili con la pratica convenzionale in modo che l'interfaccia sia conforme alle conoscenze e abilità precedenti dell'utente.
              2. Trasparenza. Non si può controllare un sistema senza capirlo. Pertanto, l'operatore umano deve essere in grado di “vedere” i processi interni del software di controllo del sistema se si vuole facilitare l'apprendimento. Un sistema trasparente consente agli utenti di costruire facilmente un modello interno delle funzioni decisionali e di controllo che il sistema può svolgere.
              3. Scossa minima. Il sistema non dovrebbe fare nulla che gli operatori trovino inaspettato alla luce delle informazioni a loro disposizione, che dettagliano lo stato attuale del sistema.
              4. Controllo dei disturbi. Le attività incerte (come definite dall'analisi della struttura di scelta) dovrebbero essere sotto il controllo dell'operatore umano con il supporto decisionale del computer.
              5. Fallibilità. Le abilità e le conoscenze implicite degli operatori umani non dovrebbero essere progettate fuori dal sistema. Gli operatori non dovrebbero mai essere messi in una posizione in cui guardano impotenti il ​​software dirigere un'operazione non corretta.
              6. Reversibilità dell'errore. Il software dovrebbe fornire un feedforward sufficiente di informazioni per informare l'operatore umano delle probabili conseguenze di una particolare operazione o strategia.
              7. Flessibilità operativa. Il sistema dovrebbe offrire agli operatori umani la libertà di bilanciare i requisiti ei limiti delle risorse modificando le strategie operative senza perdere il supporto del software di controllo.

               

              Ingegneria cognitiva dei fattori umani

              L'ingegneria cognitiva dei fattori umani si concentra su come gli operatori umani prendono decisioni sul posto di lavoro, risolvono problemi, formulano piani e apprendono nuove abilità (Hollnagel e Woods 1983). I ruoli degli operatori umani che operano in qualsiasi HAS possono essere classificati utilizzando lo schema di Rasmussen (1983) in tre categorie principali:

                1. Comportamento basato sull'abilità è la prestazione sensomotoria eseguita durante atti o attività che si svolgono senza controllo cosciente come modelli di comportamento fluidi, automatizzati e altamente integrati. Le attività umane che rientrano in questa categoria sono considerate una sequenza di atti qualificati composti per una data situazione. Il comportamento basato sull'abilità è quindi l'espressione di modelli di comportamento più o meno memorizzati o di istruzioni pre-programmate in un dominio spazio-temporale.
                2. Comportamento basato su regole è una categoria di prestazione orientata all'obiettivo strutturata dal controllo feedforward attraverso una regola o una procedura memorizzata, ovvero una prestazione ordinata che consente di comporre una sequenza di subroutine in una situazione di lavoro familiare. La regola è tipicamente selezionata da esperienze precedenti e riflette le proprietà funzionali che vincolano il comportamento dell'ambiente. Le prestazioni basate su regole si basano su un know-how esplicito per quanto riguarda l'utilizzo delle regole pertinenti. Il set di dati decisionali è costituito da riferimenti per il riconoscimento e l'identificazione di stati, eventi o situazioni.
                3. Comportamento basato sulla conoscenza è una categoria di prestazione controllata dall'obiettivo, in cui l'obiettivo è esplicitamente formulato sulla base della conoscenza dell'ambiente e degli obiettivi della persona. La struttura interna del sistema è rappresentata da un “modello mentale”. Questo tipo di comportamento consente lo sviluppo e la verifica di diversi piani in condizioni di controllo sconosciute e, quindi, incerte, ed è necessario quando le abilità o le regole non sono disponibili o sono inadeguate, quindi è necessario ricorrere alla risoluzione dei problemi e alla pianificazione.

                     

                    Nella progettazione e gestione di un HAS, si dovrebbero considerare le caratteristiche cognitive dei lavoratori al fine di assicurare la compatibilità del funzionamento del sistema con il modello interno del lavoratore che ne descrive le funzioni. Di conseguenza, il livello di descrizione del sistema dovrebbe essere spostato dagli aspetti del funzionamento umano basati sulle abilità a quelli basati sulle regole e sulla conoscenza, e dovrebbero essere usati metodi appropriati di analisi dei compiti cognitivi per identificare il modello dell'operatore di un sistema. Un problema correlato nello sviluppo di un HAS è la progettazione di mezzi di trasmissione delle informazioni tra l'operatore umano e i componenti del sistema automatizzato, sia a livello fisico che cognitivo. Tale trasferimento di informazioni dovrebbe essere compatibile con le modalità di informazione utilizzate a diversi livelli di funzionamento del sistema, cioè visivo, verbale, tattile o ibrido. Questa compatibilità informativa garantisce che le diverse forme di trasferimento delle informazioni richiedano un'incompatibilità minima tra il mezzo e la natura delle informazioni. Ad esempio, un display visivo è il migliore per la trasmissione di informazioni spaziali, mentre l'input uditivo può essere utilizzato per trasmettere informazioni testuali.

                    Molto spesso l'operatore umano sviluppa un modello interno che descrive il funzionamento e la funzione del sistema in base alla sua esperienza, formazione e istruzioni in relazione al tipo dato di interfaccia uomo-macchina. Alla luce di questa realtà, i progettisti di un HAS dovrebbero tentare di integrare nelle macchine (o altri sistemi artificiali) un modello delle caratteristiche fisiche e cognitive dell'operatore umano, ovvero l'immagine dell'operatore da parte del sistema (Hollnagel e Woods 1983) . I progettisti di un HAS devono anche prendere in considerazione il livello di astrazione nella descrizione del sistema così come varie categorie rilevanti del comportamento dell'operatore umano. Questi livelli di astrazione per modellare il funzionamento umano nell'ambiente di lavoro sono i seguenti (Rasmussen 1983): (1) forma fisica (struttura anatomica), (2) funzioni fisiche (funzioni fisiologiche), (3) funzioni generalizzate (meccanismi psicologici e e processi affettivi), (4) funzioni astratte (elaborazione delle informazioni) e (5) scopo funzionale (strutture di valori, miti, religioni, interazioni umane). Questi cinque livelli devono essere considerati simultaneamente dai progettisti al fine di garantire prestazioni HAS efficaci.

                    Progettazione del software di sistema

                    Poiché il software del computer è un componente primario di qualsiasi ambiente HAS, lo sviluppo del software, inclusi progettazione, test, funzionamento e modifica, e i problemi di affidabilità del software devono essere considerati anche nelle prime fasi dello sviluppo HAS. In questo modo, si dovrebbe essere in grado di ridurre il costo del rilevamento e dell'eliminazione degli errori del software. È difficile, tuttavia, stimare l'affidabilità dei componenti umani di un HAS, a causa delle limitazioni nella nostra capacità di modellare le prestazioni delle attività umane, il relativo carico di lavoro e potenziali errori. Un carico di lavoro mentale eccessivo o insufficiente può portare rispettivamente a sovraccarico di informazioni e noia e può comportare prestazioni umane degradate, con conseguenti errori e aumento della probabilità di incidenti. I progettisti di un HAS dovrebbero impiegare interfacce adattive, che utilizzano tecniche di intelligenza artificiale, per risolvere questi problemi. Oltre alla compatibilità uomo-macchina, deve essere considerato il problema dell'adattabilità reciproca uomo-macchina al fine di ridurre i livelli di stress che si verificano quando le capacità umane possono essere superate.

                    A causa dell'elevato livello di complessità di molti sistemi automatizzati ibridi, l'identificazione di qualsiasi potenziale pericolo correlato all'hardware, al software, alle procedure operative e alle interazioni uomo-macchina di questi sistemi diventa fondamentale per il successo degli sforzi volti alla riduzione degli infortuni e dei danni alle apparecchiature . I rischi per la sicurezza e la salute associati a complessi sistemi automatizzati ibridi, come la tecnologia di produzione integrata da computer (CIM), sono chiaramente uno degli aspetti più critici della progettazione e del funzionamento del sistema.

                    Problemi di sicurezza del sistema

                    Gli ambienti automatizzati ibridi, con il loro significativo potenziale di comportamento irregolare del software di controllo in condizioni di disturbo del sistema, creano una nuova generazione di rischi di incidente. Man mano che i sistemi automatizzati ibridi diventano più versatili e complessi, i disturbi del sistema, compresi i problemi di avvio e arresto e le deviazioni nel controllo del sistema, possono aumentare significativamente la possibilità di un serio pericolo per gli operatori umani. Ironia della sorte, in molte situazioni anomale, gli operatori di solito fanno affidamento sul corretto funzionamento dei sottosistemi di sicurezza automatizzati, una pratica che può aumentare il rischio di lesioni gravi. Ad esempio, uno studio sugli incidenti relativi a malfunzionamenti dei sistemi di controllo tecnico ha mostrato che circa un terzo delle sequenze di incidenti includeva l'intervento umano nel circuito di controllo del sistema disturbato.

                    Poiché le misure di sicurezza tradizionali non possono essere facilmente adattate alle esigenze degli ambienti HAS, le strategie di controllo degli infortuni e di prevenzione degli incidenti devono essere riconsiderate alla luce delle caratteristiche intrinseche di questi sistemi. Ad esempio, nell'area della tecnologia di produzione avanzata, molti processi sono caratterizzati dall'esistenza di notevoli quantità di flussi di energia che non possono essere facilmente previsti dagli operatori umani. Inoltre, i problemi di sicurezza emergono tipicamente alle interfacce tra i sottosistemi o quando i disturbi del sistema passano da un sottosistema all'altro. Secondo l'Organizzazione internazionale per la standardizzazione (ISO 1991), i rischi associati ai pericoli dovuti all'automazione industriale variano con i tipi di macchine industriali incorporate nello specifico sistema di produzione e con le modalità con cui il sistema è installato, programmato, utilizzato, mantenuto e riparato. Ad esempio, un confronto tra gli incidenti relativi ai robot in Svezia e altri tipi di incidenti ha mostrato che i robot possono essere le macchine industriali più pericolose utilizzate nell'industria manifatturiera avanzata. Il tasso di incidenti stimato per i robot industriali è stato di un incidente grave ogni 45 anni-robot, un tasso superiore a quello delle presse industriali, che è stato riportato essere un incidente ogni 50 anni-macchina. Va notato qui che le presse industriali negli Stati Uniti hanno rappresentato circa il 23% di tutti gli incidenti mortali correlati alle macchine per la lavorazione dei metalli per il periodo 1980-1985, con le presse elettriche al primo posto rispetto al prodotto gravità-frequenza per infortuni non mortali.

                    Nel campo della tecnologia di produzione avanzata, ci sono molte parti mobili che sono pericolose per i lavoratori poiché cambiano la loro posizione in modo complesso al di fuori del campo visivo degli operatori umani. I rapidi sviluppi tecnologici nella produzione integrata da computer hanno creato un'esigenza critica per studiare gli effetti della tecnologia di produzione avanzata sui lavoratori. Per identificare i pericoli causati dai vari componenti di un tale ambiente HAS, è necessario analizzare attentamente gli incidenti passati. Sfortunatamente, gli incidenti che coinvolgono l'uso di robot sono difficili da isolare dalle segnalazioni di incidenti relativi a macchine operate dall'uomo e, pertanto, potrebbe esserci un'alta percentuale di incidenti non registrati. Le norme sulla salute e sicurezza sul lavoro del Giappone affermano che "i robot industriali non dispongono attualmente di mezzi affidabili di sicurezza e i lavoratori non possono essere protetti da essi a meno che il loro uso non sia regolamentato". Ad esempio, i risultati dell'indagine condotta dal Ministero del lavoro del Giappone (Sugimoto 1987) sugli incidenti relativi ai robot industriali nelle 190 fabbriche esaminate (con 4,341 robot funzionanti) hanno mostrato che si sono verificati 300 disturbi correlati ai robot, di cui 37 casi degli atti non sicuri ha provocato alcuni quasi incidenti, 9 sono stati incidenti con lesioni e 2 sono stati incidenti mortali. I risultati di altri studi indicano che l'automazione basata su computer non aumenta necessariamente il livello generale di sicurezza, poiché l'hardware del sistema non può essere reso sicuro dalle sole funzioni di sicurezza nel software del computer e i controller di sistema non sono sempre altamente affidabili. Inoltre, in un HAS complesso, non si può fare affidamento esclusivamente sui dispositivi di rilevamento della sicurezza per rilevare condizioni di pericolo e intraprendere strategie appropriate per evitare i rischi.

                    Effetti dell'automazione sulla salute umana

                    Come discusso in precedenza, le attività dei lavoratori in molti ambienti HAS sono fondamentalmente quelle di controllo di supervisione, monitoraggio, supporto del sistema e manutenzione. Queste attività possono anche essere classificate in quattro gruppi di base come segue: (1) attività di programmazione, ovvero codifica delle informazioni che guidano e dirigono il funzionamento dei macchinari, (2) monitoraggio della produzione HAS e componenti di controllo, (3) manutenzione dei componenti HAS per prevenire o alleviare i malfunzionamenti dei macchinari e (4) svolgere una varietà di attività di supporto, ecc. Molte revisioni recenti dell'impatto dell'HAS sul benessere dei lavoratori hanno concluso che sebbene l'utilizzo di un HAS nell'area di produzione possa eliminare compiti pesanti e pericolosi , lavorare in un ambiente HAS può essere insoddisfacente e stressante per i lavoratori. Le fonti di stress includevano il monitoraggio costante richiesto in molte applicazioni HAS, l'ambito limitato delle attività assegnate, il basso livello di interazione tra i lavoratori consentito dalla progettazione del sistema e i rischi per la sicurezza associati alla natura imprevedibile e incontrollabile dell'apparecchiatura. Anche se alcuni lavoratori coinvolti nelle attività di programmazione e manutenzione avvertono gli elementi di sfida, che possono avere effetti positivi sul loro benessere, questi effetti sono spesso controbilanciati dalla natura complessa e impegnativa di queste attività, nonché dalla pressione esercitato dalla direzione per completare rapidamente queste attività.

                    Sebbene in alcuni ambienti HAS gli operatori umani siano rimossi dalle tradizionali fonti di energia (il flusso di lavoro e il movimento della macchina) durante le normali condizioni operative, molte attività nei sistemi automatizzati devono ancora essere svolte a diretto contatto con altre fonti di energia. Poiché il numero di diversi componenti HAS è in continuo aumento, occorre porre particolare enfasi sul comfort e sulla sicurezza dei lavoratori e sullo sviluppo di efficaci disposizioni per il controllo degli infortuni, soprattutto in considerazione del fatto che i lavoratori non sono più in grado di tenere il passo con il sofisticazione e complessità di tali sistemi.

                    Al fine di soddisfare le attuali esigenze di controllo degli infortuni e sicurezza dei lavoratori nei sistemi di produzione integrati da computer, il Comitato ISO sui sistemi di automazione industriale ha proposto un nuovo standard di sicurezza intitolato "Sicurezza dei sistemi di produzione integrati" (1991). Questo nuovo standard internazionale, che è stato sviluppato in riconoscimento dei rischi particolari che esistono nei sistemi di produzione integrati che incorporano macchine industriali e attrezzature associate, mira a ridurre al minimo le possibilità di lesioni al personale mentre si lavora su o in prossimità di un sistema di produzione integrato. Le principali fonti di potenziali pericoli per gli operatori umani in CIM identificate da questo standard sono mostrate in figura 1.

                    Figura 1. Principale fonte di pericoli nella produzione integrata da computer (CIM) (dopo ISO 1991)

                    ACC250T1

                    Errori umani e di sistema

                    In generale, i pericoli in un HAS possono derivare dal sistema stesso, dalla sua associazione con altre apparecchiature presenti nell'ambiente fisico o dalle interazioni del personale umano con il sistema. Un incidente è solo uno dei numerosi esiti delle interazioni uomo-macchina che possono emergere in condizioni pericolose; la maggior parte degli incidenti e dei danni è molto più comune (Zimolong e Duda 1992). Il verificarsi di un errore può portare a una delle seguenti conseguenze: (1) l'errore passa inosservato, (2) il sistema può compensare l'errore, (3) l'errore porta a un guasto della macchina e/o all'arresto del sistema o (4 ) l'errore provoca un incidente.

                    Poiché non tutti gli errori umani che si traducono in un incidente critico causeranno un incidente effettivo, è opportuno distinguere ulteriormente tra le seguenti categorie di risultati: (1) un incidente non sicuro (ovvero, qualsiasi evento non intenzionale indipendentemente dal fatto che provochi lesioni, danni o perdita), (2) un incidente (vale a dire, un evento pericoloso che provoca lesioni, danni o perdite), (3) un incidente con danno (vale a dire, un evento pericoloso che provoca solo un qualche tipo di danno materiale), (4) un quasi incidente o "mancato incidente" (ossia, un evento non sicuro in cui lesioni, danni o perdite sono stati fortuitamente evitati con un margine ristretto) e (5) l'esistenza di un potenziale incidente (ossia, eventi non sicuri che avrebbero potuto provocare lesioni, danni , o perdita, ma, a causa delle circostanze, non ha provocato nemmeno un quasi incidente).

                    Si possono distinguere tre tipi fondamentali di errore umano in un HAS:

                      1. scivoloni e errori basati sull'abilità
                      2. errori basati sulle regole
                      3. errori basati sulla conoscenza.

                           

                          Questa tassonomia, ideata da Reason (1990), si basa su una modifica della classificazione abilità-regola-conoscenza delle prestazioni umane di Rasmussen come descritto sopra. A livello basato sull'abilità, le prestazioni umane sono governate da modelli memorizzati di istruzioni pre-programmate rappresentate come strutture analogiche in un dominio spazio-temporale. Il livello basato su regole è applicabile per affrontare problemi familiari in cui le soluzioni sono governate da regole memorizzate (chiamate "produzioni", poiché vi si accede, o si producono, quando necessario). Queste regole richiedono che vengano fatte determinate diagnosi (o giudizi), o che vengano intraprese determinate azioni correttive, dato che si sono verificate determinate condizioni che richiedono una risposta adeguata. A questo livello, gli errori umani sono tipicamente associati all'errata classificazione delle situazioni, che porta all'applicazione della regola sbagliata o al richiamo errato di sentenze o procedure conseguenti. Gli errori basati sulla conoscenza si verificano in nuove situazioni per le quali le azioni devono essere pianificate "on-line" (in un dato momento), utilizzando processi analitici consapevoli e conoscenza immagazzinata. Gli errori a questo livello derivano da limitazioni delle risorse e conoscenze incomplete o errate.

                          I sistemi generici di modellazione degli errori (GEMS) proposti da Reason (1990), che tenta di individuare le origini dei tipi di errore umano di base, possono essere utilizzati per derivare la tassonomia complessiva del comportamento umano in un HAS. GEMS cerca di integrare due aree distinte di ricerca sugli errori: (1) errori e errori, in cui le azioni si discostano dall'intenzione attuale a causa di errori di esecuzione e/o errori di archiviazione e (2) errori, in cui le azioni possono essere eseguite secondo il piano, ma il piano è inadeguato per raggiungere il risultato desiderato.

                          Valutazione e Prevenzione del Rischio in CIM

                          Secondo l'ISO (1991), la valutazione del rischio in CIM dovrebbe essere eseguita in modo da minimizzare tutti i rischi e servire come base per determinare gli obiettivi e le misure di sicurezza nello sviluppo di programmi o piani sia per creare un ambiente di lavoro sicuro sia per garantire anche la sicurezza e la salute del personale. Ad esempio, i rischi sul lavoro negli ambienti HAS basati sulla produzione possono essere caratterizzati come segue: (1) l'operatore umano potrebbe dover entrare nella zona di pericolo durante le attività di ripristino, assistenza e manutenzione, (2) la zona di pericolo è difficile da determinare, percepire e controllare, (3) il lavoro può essere monotono e (4) gli incidenti che si verificano all'interno di sistemi di produzione integrati da computer sono spesso gravi. Ogni pericolo identificato dovrebbe essere valutato per il suo rischio e dovrebbero essere determinate e implementate adeguate misure di sicurezza per ridurre al minimo tale rischio. I pericoli dovrebbero essere accertati anche rispetto a tutti i seguenti aspetti di un dato processo: la singola unità stessa; l'interazione tra le singole unità; le sezioni operative del sistema; e il funzionamento del sistema completo per tutte le modalità e condizioni operative previste, comprese le condizioni in cui i normali mezzi di protezione sono sospesi per operazioni quali programmazione, verifica, risoluzione dei problemi, manutenzione o riparazione.

                          La fase di progettazione della strategia di sicurezza ISO (1991) per CIM comprende:

                            • specificazione dei limiti dei parametri di sistema
                            • applicazione di una strategia di sicurezza
                            • identificazione dei pericoli
                            • valutazione dei rischi associati
                            • rimozione dei pericoli o diminuzione dei rischi per quanto praticabile.

                                     

                                    La specifica di sicurezza del sistema dovrebbe includere:

                                      • una descrizione delle funzioni del sistema
                                      • un layout e/o un modello di sistema
                                      • i risultati di un'indagine condotta per indagare l'interazione tra diversi processi lavorativi e attività manuali
                                      • un'analisi delle sequenze di processo, inclusa l'interazione manuale
                                      • una descrizione delle interfacce con trasportatori o linee di trasporto
                                      • diagrammi di flusso di processo
                                      • piani di fondazione
                                      • piani per la fornitura e lo smaltimento dei dispositivi
                                      • determinazione dello spazio necessario per l'approvvigionamento e lo smaltimento del materiale
                                      • registri degli infortuni disponibili.

                                                         

                                                        In conformità con l'ISO (1991), tutti i requisiti necessari per garantire un funzionamento sicuro del sistema CIM devono essere considerati nella progettazione di procedure sistematiche di pianificazione della sicurezza. Ciò include tutte le misure protettive per ridurre efficacemente i pericoli e richiede:

                                                          • integrazione dell'interfaccia uomo-macchina
                                                          • definizione anticipata della posizione di coloro che lavorano al sistema (nel tempo e nello spazio)
                                                          • considerazione precoce dei modi per ridurre il lavoro isolato
                                                          • considerazione degli aspetti ambientali.

                                                               

                                                              La procedura di pianificazione della sicurezza dovrebbe affrontare, tra gli altri, i seguenti problemi di sicurezza del CIM:

                                                                • Selezione delle modalità di funzionamento del sistema. L'apparecchiatura di controllo dovrebbe prevedere almeno le seguenti modalità operative: (1) modalità normale o di produzione (ovvero, con tutte le normali protezioni collegate e funzionanti), (2) funzionamento con alcune delle normali protezioni sospese e (3) funzionamento in quale sistema o l'avvio manuale remoto di situazioni pericolose è impedito (ad esempio, in caso di funzionamento locale o di isolamento dell'alimentazione o blocco meccanico di condizioni pericolose).
                                                                • Formazione, installazione, messa in servizio e collaudo funzionale. Quando è necessario che il personale si trovi nella zona di pericolo, nel sistema di controllo devono essere previste le seguenti misure di sicurezza: (1) mantenimento della marcia, (2) dispositivo di abilitazione, (3) velocità ridotta, (4) potenza ridotta e (5 ) arresto di emergenza mobile.
                                                                • Sicurezza nella programmazione, manutenzione e riparazione del sistema. Durante la programmazione, solo il programmatore dovrebbe essere ammesso nello spazio protetto. Il sistema dovrebbe disporre di procedure di ispezione e manutenzione per garantire il funzionamento continuo previsto del sistema. Il programma di ispezione e manutenzione dovrebbe tenere conto delle raccomandazioni del fornitore del sistema e di quelle dei fornitori dei vari elementi del sistema. È superfluo menzionare che il personale addetto alla manutenzione o alla riparazione del sistema dovrebbe essere addestrato nelle procedure necessarie per eseguire le attività richieste.
                                                                • Eliminazione dei guasti. Laddove sia necessaria l'eliminazione del guasto dall'interno dello spazio protetto, dovrebbe essere eseguita dopo la disconnessione sicura (o, se possibile, dopo l'attivazione di un meccanismo di blocco). Devono essere prese ulteriori misure contro l'attivazione errata di situazioni pericolose. Laddove durante l'eliminazione dei guasti possono verificarsi pericoli su sezioni dell'impianto o sulle macchine di impianti o macchine adiacenti, anche questi dovrebbero essere messi fuori servizio e protetti contro l'avviamento inaspettato. Per mezzo di segnali di avvertenza e di avvertenza, si dovrebbe richiamare l'attenzione sull'eliminazione dei guasti nei componenti del sistema che non possono essere osservati completamente.

                                                                       

                                                                      Controllo dei disturbi del sistema

                                                                      In molte installazioni HAS utilizzate nell'area di produzione integrata da computer, gli operatori umani sono generalmente necessari allo scopo di attività di controllo, programmazione, manutenzione, preimpostazione, assistenza o risoluzione dei problemi. I disturbi nel sistema portano a situazioni che rendono necessario l'ingresso dei lavoratori nelle aree pericolose. A questo proposito, si può presumere che i disturbi rimangano la ragione più importante dell'interferenza umana nel CIM, perché i sistemi saranno programmati il ​​più delle volte dall'esterno delle aree riservate. Uno degli aspetti più importanti per la sicurezza del CIM è la prevenzione dei disturbi, poiché la maggior parte dei rischi si verifica nella fase di risoluzione dei problemi del sistema. La prevenzione delle perturbazioni è l'obiettivo comune per quanto riguarda sia la sicurezza che l'efficacia in termini di costi.

                                                                      Un disturbo in un sistema CIM è uno stato o una funzione di un sistema che devia dallo stato pianificato o desiderato. Oltre alla produttività, i disturbi durante il funzionamento di un CIM hanno un effetto diretto sulla sicurezza delle persone coinvolte nel funzionamento del sistema. Uno studio finlandese (Kuivanen 1990) ha dimostrato che circa la metà dei disturbi nella produzione automatizzata riduce la sicurezza dei lavoratori. Le principali cause di disturbo sono state gli errori nella progettazione del sistema (34%), i guasti dei componenti del sistema (31%), l'errore umano (20%) e fattori esterni (15%). La maggior parte dei guasti alle macchine è stata causata dal sistema di controllo e, nel sistema di controllo, la maggior parte dei guasti si è verificata nei sensori. Un modo efficace per aumentare il livello di sicurezza degli impianti CIM è ridurre il numero di disturbi. Sebbene le azioni umane nei sistemi disturbati prevengano il verificarsi di incidenti nell'ambiente HAS, vi contribuiscono anche. Ad esempio, uno studio sugli incidenti relativi a malfunzionamenti dei sistemi di controllo tecnico ha mostrato che circa un terzo delle sequenze di incidenti includeva l'intervento umano nel circuito di controllo del sistema disturbato.

                                                                      I principali temi di ricerca nella prevenzione dei disturbi CIM riguardano (1) principali cause di disturbi, (2) componenti e funzioni inaffidabili, (3) l'impatto dei disturbi sulla sicurezza, (4) l'impatto dei disturbi sulla funzione del sistema, ( 5) danni materiali e (6) riparazioni. La sicurezza degli HAS dovrebbe essere pianificata all'inizio della fase di progettazione del sistema, con la dovuta considerazione della tecnologia, delle persone e dell'organizzazione, ed essere parte integrante dell'intero processo di pianificazione tecnica degli HAS.

                                                                      HAS Design: sfide future

                                                                      Per garantire il massimo vantaggio dai sistemi automatizzati ibridi come discusso in precedenza, è necessaria una visione molto più ampia dello sviluppo del sistema, basata sull'integrazione di persone, organizzazione e tecnologia. Tre tipi principali di integrazione di sistema dovrebbero essere applicati qui:

                                                                        1. integrazione delle persone, assicurando una comunicazione efficace tra loro
                                                                        2. integrazione uomo-macchina, progettando interfacce e interazioni adeguate tra persone e computer
                                                                        3. integrazione tecnologica, garantendo un efficace interfacciamento e interazione tra le macchine.

                                                                             

                                                                            I requisiti minimi di progettazione per i sistemi automatizzati ibridi dovrebbero includere quanto segue: (1) flessibilità, (2) adattamento dinamico, (3) migliore reattività e (4) necessità di motivare le persone e fare un uso migliore delle loro capacità, giudizio ed esperienza . Quanto sopra richiede anche che le strutture organizzative, le pratiche di lavoro e le tecnologie HAS siano sviluppate per consentire alle persone a tutti i livelli del sistema di adattare le proprie strategie di lavoro alla varietà delle situazioni di controllo dei sistemi. Pertanto, le organizzazioni, le pratiche di lavoro e le tecnologie di HAS dovranno essere progettate e sviluppate come sistemi aperti (Kidd 1994).

                                                                            Un sistema automatizzato ibrido aperto (OHAS) è un sistema che riceve input e invia output al suo ambiente. L'idea di un sistema aperto può essere applicata non solo alle architetture di sistema e alle strutture organizzative, ma anche alle pratiche di lavoro, alle interfacce uomo-macchina, al rapporto tra persone e tecnologie: si possono citare, ad esempio, i sistemi di schedulazione, i sistemi di controllo e Sistema di Supporto Decisionale. Un sistema aperto è anche adattivo quando consente alle persone un ampio grado di libertà di definire la modalità di funzionamento del sistema. Ad esempio, nell'area della produzione avanzata, i requisiti di un sistema automatizzato ibrido aperto possono essere realizzati attraverso il concetto di manifattura umana e computerizzata (HCIM). In questa prospettiva, la progettazione della tecnologia dovrebbe affrontare l'architettura complessiva del sistema HCIM, inclusi i seguenti: (1) considerazioni sulla rete di gruppi, (2) la struttura di ciascun gruppo, (3) l'interazione tra i gruppi, (4) la natura del software di supporto e (5) le esigenze tecniche di comunicazione e integrazione tra i moduli software di supporto.

                                                                            Il sistema automatizzato ibrido adattivo, al contrario del sistema chiuso, non limita ciò che gli operatori umani possono fare. Il ruolo del progettista di un HAS è quello di creare un sistema che soddisfi le preferenze personali dell'utente e consenta ai suoi utenti di lavorare nel modo che ritengono più appropriato. Un prerequisito per consentire l'input dell'utente è lo sviluppo di una metodologia di progettazione adattiva, ovvero un OHAS che consenta l'abilitazione della tecnologia supportata dal computer per la sua implementazione nel processo di progettazione. La necessità di sviluppare una metodologia per la progettazione adattiva è uno dei requisiti immediati per realizzare nella pratica il concetto di OHAS. È inoltre necessario sviluppare un nuovo livello di tecnologia di controllo della supervisione umana adattiva. Tale tecnologia dovrebbe consentire all'operatore umano di "vedere attraverso" il sistema di controllo altrimenti invisibile del funzionamento dell'HAS, ad esempio mediante l'applicazione di un sistema video interattivo ad alta velocità in ogni punto di controllo e funzionamento del sistema. Infine, è assolutamente necessaria anche una metodologia per lo sviluppo di un supporto computerizzato intelligente e altamente adattivo dei ruoli umani e del funzionamento umano nei sistemi automatizzati ibridi.

                                                                             

                                                                            Di ritorno

                                                                            " DISCLAIMER: L'ILO non si assume alcuna responsabilità per i contenuti presentati su questo portale Web presentati in una lingua diversa dall'inglese, che è la lingua utilizzata per la produzione iniziale e la revisione tra pari del contenuto originale. Alcune statistiche non sono state aggiornate da allora la produzione della 4a edizione dell'Enciclopedia (1998)."

                                                                            Contenuti