Modern technology has now reached a point where improved safety can only be achieved through a better understanding of human error mechanisms. In its treatment of major accidents, the book spans the disciplinary gulf between psychological theory and those concerned with maintaining the reliability of hazardous technologies. Much of the theoretical structure is new and original, and of particular importance is the identification of cognitive processes common to a wide variety of error types.
James Reason is professor psychologie aan de universiteit van Manchester, gespecialiseerd in menselijke fouten, stress, ergonomie en zintuigstoornissen. In plaats van een breed overzicht te geven van bekende menselijke fouten, koos hij er in "Human error" voor om in de diepte te gaan, en volledigheid in te ruilen voor een kans om enkel meer algemene principes van handelingsfouten te ontdekken.
Deel 1 beschrijft een basis voor de rest van het boek, met ideeën, methoden, onderzoekstraditie en achtergrond.
Hoofdstuk 1, "The nature of error", geeft een ruwe classificatie en bekijkt de gebruikte onderzoektechnieken.
Hoofdstuk 2, "Studies of human error", beschrijft zowel theoretische technieken uit de natuurwetenschappen, gebaseerd op observaties en empirisch onderzoek, als de "engineering"-benadering die meer werkt met praktisch toepasbare veralgemeningen. De rest van het boek volgt eerder die tweede strekking.
Deel 2 verklaart foutmechanismen.
Hoofdstuk 3, "Performance levels and error types", beschrijft een systeem voor foutmodellering dat drie basistypen van fouten identificeert, meer bepaald rond vaardigheden, regels en kennis. Het geeft een overzicht van soorten fouten die uit die basistypen kunnen ontstaan.
Hoofdstuk 4, "Cognitive underspecification and error forms", introduceert het concept van cognitieve onderspecificatie: als cognitieve operaties onvoldoende gespecificeerd zijn, geeft dat aanleiding tot terugval op voor de context toepasselijke frequent voorkomende acties. Twee processen spelen hier een rol: patroonherkenning, waarbij aanwezige kennis wordt vergeleken met actuele vereisten, en gokken, waarbij een conflict tussen partieel passende kennisstructuren meestal wordt opgelost door te kiezen voor de meest frequent voorkomende. Twee onderliggende oorzaken: onvoldoende specificatie om een bepaald kennisitem te lokaliseren, en ontbrekende kennis, beide met hetzelfde effect.
In hoofdstuk 5, "A design for a fallible machine", wordt bekeken of en hoe een systeem kan gebouwd worden dat menselijke fouten simuleert.
Deel 3 bekijkt de gevolgen van menselijke fouten; foutdetectie, bijdrage aan incidenten, en remedies.
Hoofdstuk 6, "The detection of errors", beschrijft de detectie en correctie van fouten in verschillende niveaus van bewustzijn in de controle. Deze zijn in hoge mate afhankelijk van de beschikbaarheid en juistheid van teruggekoppelde informatie
Hoofdstuk 7, "Latent errors and system disasters", beschrijft de bijdrage van menselijke fouten aan incidenten in complexe technologieën met hoog risico. Enkele voorbeelden worden besproken: Three Mile Island, Bhopal, Challenger, Tsjernobyl, de Herald Of Free Enterprise, en de brand in de King's Cross metro.
Een kenmerkende regel uit de inleiding: "Operatoren zijn niet zozeer de aanstekers van incidenten, dan wel de erfgenamen van systeemfouten die het gevolg zijn van slecht ontwerp, foutieve installatie, fouten bij onderhoud, en slechte management beslissingen.".
Hoofdstuk 8, "Assessing and reducing human error risk", geeft een kritische kijk op het management van risico's en van (menselijke) betrouwbaarheid, en bespreekt dan een aantal maatregelen om risico's te beperken. Verder is er aandacht voor de verschuiving van de focus van risicospecialisten: van betrouwbaarheid van onderdelen, over het effect van menselijke fouten, naar inherente systeemfouten.
In dit boek gaat het regelmatig over fouten die uiteindelijk aanleiding geven tot kleine en grote rampen die in het nieuws komen, na een cascade en met wat toeval. Bij veel van de problemen in systemen komen de gevolgen niet in het nieuws, omdat er geen toevallige samenloop van omstandigheden is, maar vooral omdat ze minder risicovol zijn en daardoor geen rampen veroorzaken. Een fout in een administratief informatiesysteem komt niet gauw aan de oppervlakte. Als ze al een aanleiding is tot een slechte managementbeslissing (bv. door verkeerde getallen in een rapport), zal de fout zelf niet opvallen omdat het verband niet zichtbaar is, en die ene slechte beslissing meestal niet opvalt tussen al die andere…