|
technologies
Par Michel Llory * |
|
|
|
Depuis l'accident de Three Miles Island une réflexion originale et dynamique s'est développée, particulièrement aux Etats-Unis, sur les risques et la question très grave de la maîtrise du développement technologique.
Depuis près de quinze ans, plusieurs ouvrages, de l'étude des retombées humaines, psychologiques de TMI (1) à l'ouvrage fondateur de Perrow (2), puis à des ouvrages récents sur les " organisations à haute fiabilité " (3) et sur l'accident de la navette spatiale Challenger (4) (5) sont venus jeter une autre lumière sur les termes du débat, en matière de maîtrise des risques technologiques. La thèse de l'erreur humaine, comme thèse explicative de la genèse des accidents, a été battue en brèche. Cette thèse ne résiste pas à l'examen minutieux des données dont on dispose, aussi bien de TMI et de Challenger, de Piper Alpha et de Bhopal pour ne citer que quelques exemples d'accidents, et à un degré bien moindre Tchernobyl (6).
|
|
Les accidents, le prix du silence dans les organisations
Cet examen minutieux nécessite un travail d'ergonome, de psychologue, de sociologue et d'historien. Il nécessite de confronter un certain nombre d'interviews, de données d'enquêtes sur le terrain, de déclarations et de nombreux documents. Il met en évidence l'existence de facteurs organisationnels qui sont la source cachée des accidents, la partie immergée de l'iceberg: pressions productives - pour une plus grande rentabilité immédiate - défaillances et cloisonnements organisationnels, management descendant, " top-down ", culte du secret apparaissent comme des facteurs-clés qui contribuent puissamment au développement de situations pré-accidentelles puis accidentelles. Les accidents, nous avons essayé de le montrer dans notre ouvrage Accidents industriels, sont le prix du silence, du silence dans les organisations. Ainsi les opérateurs sont privés de parole et très rarement écoutés. Et les cadres qui pourtant gèrent et dirigent les grandes organisations sont généralement introuvables dans les comptes rendus d'accidents ! A TMI, l'accident s'est produit alors que deux services de GPU (la compagnie d'électricité gérant TMI) se renvoyaient des notes de service en vue de la modification d'une procédure incomplète, insuffisante (mais la modification ne fut pas faite). Cette même procédure que les opérateurs ont finalement choisi de suivre, car élaborée par des experts, en dépit des doutes qu'ils avaient sur son efficacité ! Les accidents sont engendrés par les défaillances des organisations, des institutions. Bureaucratie fermée et lourde, souci dangereux d'une stricte conformité aux procédures, défaillances de la communication, constitution locale d'un paradigme technique en partie erroné et non évolutif, anomalies dans l'obtention des dérogations de sécurité, sont autant de dysfonctionnements constatés au niveau de l'organisation de la NASA et de ses contractants, par ailleurs présentée avant l'accident de Challenger comme un modèle de perfection. La NASA dont les responsables prétendaient, depuis l'alunissage des astronautes, pouvoir tout réussir !
|
|
Le contrôle social du développement technique
C'est ici que se placent les termes du débat. Dans le contrôle social d'un développement technologique effréné, dans l'analyse et le contrôle de vastes organisations fermées et secrètes. Récemment, un ouvrage américain (7), encore un ! fait la lumière sur les dysfonctionnements lors de la guerre froide, de ce que les spécialistes du Pentagone prétendaient être un impeccable dispositif militaire. On y apprend que plusieurs incidents sérieux, dus à des défaillances techniques et organisationnelles, auraient pu provoquer une guerre nucléaire ! On y retrouve les mêmes composantes dysfonctionnelles que dans les accidents relatifs à l'industrie civile. Revenons à l'industrie nucléaire: le problème de la sous-traitance, de la fatigue des opérateurs la nuit ou lors de périodes particulières comme les arrêts de tranche, la difficulté de prendre en compte le facteur humain (si ce n'est lors des accidents sous la forme d'erreurs humaines !), le climat social parfois difficile, l'entrave des savoir-faire de métiers et des savoir-faire de prudence des opérateurs par un management gestionnaire, l'excès de procédures, sont autant de sujets potentiels de préoccupations. Des réactions parfois vives des cadres, hostiles à toute reconnaissance de situations de souffrance et de peur légitimes vécues par le personnel de terrain devraient être des sujets de réflexion qui gagneraient à être discutés. La recherche dans le domaine est relativement réduite, comparée aux recherches techniques, alors que la plupart des experts reconnaissent paradoxalement que le facteur humain est de nos jours la préoccupation première vis à vis de la sécurité. Enfin, rappelons que le premier mouvement de Richard Feynman, également prix Nobel de physique, lorsqu'il fut nommé membre de la Commission d'enquête présidentielle suite à l'accident de la navette Challenger, fut d'aller sur le terrain, à Cap Kennedy, en dépit de l'opposition du président de la commission, William Rogers. Il alla discuter avec ces "gars " qui travaillaient au montage des lanceurs dont les joints d'étanchéité avaient été défaillants. Et il apprit beaucoup de choses d'eux, selon son propre aveu (8) |
|
* Consultant en organisation du travail et en sécurité à l'Institut du travail humain, a publié Accidents industriels: le coût du silence, éditions de l'Harmattan, 1996. 1. David Silles et al.Ed.Accident at Three Mile Island.the Human dimensions, Westview Presse, Boulder, 1982. 2. Charles Perrow, Normal accidents, Basis Books, New York, 1984. 3. Karlene Roberts, Ed., New challenges to understanding organizations, Macmillan Publ.Comp., 1993. 4. Diane Vaughan, The Challenger Launch Decision, Risky technology, culture, and deviance at Nasa, The University of Chicago press, Chicago et Londres, 1996. 5. Michel Llory, Accidents industriels: le coût du silence, l'Harmattan, 1996. 6. Pour ce dernier accident, nous ne disposons malheureusement que de peu d'informations détaillées sur les conditions de travail, de décision et de communication dans la centrale 7. Scott Sagan, The limits of safety, Princeton University press, Princeton, 1993. 8. R.P.Feynman, What do you care what other people think ?, Bantam Books, New York, 1988.
|