21 agosto 2007

Seguridad y gestión

Omalaled, autor del estupendo blog Historias de la Ciencia, nos hace un interesante comentario en el artículo anterior, sobre la seguridad de las misiones y las relaciones entre técnicos y gestores en la industria. Comenta Omalaled que "no me fío un pelo. Y no es que no confíe en los técnicos, sino que no me fío de la burocracia empresarial. Me imagino al técnico diciendo: había un coeficiente de seguridad que antes era 1,3 y a hora es 1,1 y sale el representante ante la prensa diciendo que no hay problema y que todo es seguro... Y sólo falta añadir el "nunca pasa nada". Es una lástima que quienes hablan a la prensa sean siempre los que menos cálculos hacen."

El comentario me ha gustado, porque toca un tema muy espinoso y que me parece de un enorme interés. Estoy de acuerdo sólo a medias con el comentario, pero coincido plenamente con el espíritu del mismo, al destacar lo desconectados que están a veces estos dos campos de la industria: el de los técnicos que realizan los cálculos, y el de los gestores que toman las decisiones. Un tema que ha dado para libros enteros, en especial a raíz del accidente del Columbia, que sacó a la luz de la forma más brutal posible estos problemas. Y es un tema apasionante, principalmente por su complejidad. Porque es fácil criticarlo, pero también es muy fácil caer en esos mismos errores sin darnos cuenta cuando nos toca a nosotros. En el fondo, es un problema que tiene mucho que ver con la psicología y la sociología, de nuestra respuesta ante la presión, ya sea de nuestros superiores o del entorno; y de mecanismos en cierto modo naturales en nuestra mente, que tienden a que sin querer nos relajemos tras una larga temporada de éxitos sin problemas. En fin, el tema no es mi especialidad, en absoluto, pero leí mucho sobre ello cuando me documentaba para escribir “Houston, tenemos un problema” (en relación con los accidentes del Challenger y del Columbia, sobre todo), y me pareció apasionante. Tanto, que le dediqué 35 páginas al capítulo del Columbia, de las cuales casi la mitad tratan este aspecto.

Como digo, se han dedicado libros enteros a analizar este problema, que no es en absoluto exclusivo de la industria aeroespacial: de hecho, es aplicable a cualquier actividad de riesgo, a todos los niveles, desde el diseño hasta la operación del sistema. Y es algo que casi todos los que trabajamos en actividades relacionadas hemos vivido alguna vez, de una forma o de otra. Y no es un problema fácil de solucionar.

El tema me interesó tanto que llegué a escribir un apéndice para el “Houston” titulado “Seguridad y fiabilidad en la actividad aeroespacial”, aunque no llegó a publicarse porque en la editorial consideraron que no tenía mucha conexión con el texto; y era cierto, se trataba de algo diferente, con otro estilo, menos ameno y quizás sólo de interés para quienes hemos vivido estos problemas y por ello nos tocan más de cerca; pero lo comento para que veáis cómo me interesó. De hecho, llegué a dar unos seminarios en mi empresa con este mismo título, y creo que resultaron de gran interés; y es que, como digo, muchos nos sentimos identificados con estos problemas en nuestro día a día profesional. Afortunadamente, el sistema creado a lo largo de los años (la normativa, las regulaciones, etc) a menudo nos protege de nuestros propios errores, al menos en actividades tan reguladas como la aeronáutica. Pero no pensemos que estos problemas son exclusivos de la industria, o de actividades tecnológicas: tras publicar “Houston”, me contactó el Director Médico de la Clínica Universitaria de Navarra porque precisamente allí estaban poniendo en marcha un plan para aplicar a las prácticas de quirófano las lecciones aprendidas de accidentes como el del Columbia, con vistas a reducir las muertes por error humano. Un error que suele ser mucho más complejo que la simple negligencia de una persona: a menudo se trata de un cúmulo de malas prácticas que, sumadas, dan lugar a errores fatales que muchas veces incluso pasan desapercibidos para todos los involucrados. Como digo, es un tema complejo.

Pero bueno, ya estoy enrollándome como siempre sin ir al grano. Así que volvamos al comentario de Omalaled relacionado con la misión STS-118 del Endeavour, para analizarlo con detalle, pues desde mi punto de vista tampoco es tan sencillo como parece.

Cojamos el ejemplo que comenta del margen de seguridad. Es de suponer que, efectivamente, el margen de seguridad en la zona ha descendido (no lo sé exactamente; por lo que he leído, en un primer cálculo el daño a las losetas ni siquiera alteraba los márgenes de seguridad de la estructura subyacente, pero se reconocía que era un cálculo rápido que había que refinar; no he seguido en detalle el resultado final, si es que se ha publicado, pero supondremos que ha descendido algo dicho margen). La cuestión es si el margen ahora ha caído por debajo del mínimo aceptable o no. ¿Cuál es ese mínimo? En aeronáutica, el que marcan las normas: 1,5 (hablo en términos de factor de seguridad; el margen de seguridad es lo mismo menos 1, es decir, 0,5, o un 50%). En astronáutica no aplican estas normas, no son de obligado cumplimiento, pero suelen seguirse. Así pues, si el factor antes era de un 1,7 y ahora está en 1,5, por ejemplo, estaría plenamente justificada la decisión de no reparar. Otra cosa es que hubiera pasado de 1,7 a 1,3, por ejemplo… Aún así, creo que son dos opciones a analizar más en detalle:

1. El factor de seguridad pasa de 1,7 a 1,5. Cumplimos la norma, luego es válido. Ahora bien, alguien puede decir que por qué nos conformamos con esto, si antes teníamos más seguridad. Es cierto, pero ¿necesitábamos 1,7? Entendemos que no: el factor de 1,5 regulado por norma ya es suficiente para cubrir cualquier incertidumbre o inexactitud asociada con los modelos de cálculo utilizados. Es decir, si hemos hecho bien nuestro trabajo (y ése es otro tema), con 1,5 estamos cubiertos. Así que utilizar 1,7 no da más seguridad, sino simplemente más peso. Evidentemente, todos nos quedaríamos más a gusto con un factor de 3, y no de 1,5… pero entonces los aviones no despegarían del suelo. Afortunadamente, hemos conseguido refinar tanto nuestros métodos de cálculo hasta reproducir con tanta fidelidad la realidad física, que se ha demostrado que 1,5 es un valor aceptable. Así que, mientras estemos por encima de ello, no hay problema, aunque a nadie le guste bajar un factor de seguridad, sea cual sea su valor inicial.

Alguien se puede preguntar: ¿y entonces por qué no era antes ya 1,5? Bueno, puede haber múltiples razones. Una, por ejemplo, que puede que el dimensionado de la pieza esté dictado por otro criterio más restrictivo. Por ejemplo, a lo mejor la pieza tiene un factor de seguridad de 2,7 frente a resistencia, pero de 1,5 frente a rigidez; es decir, si tenemos un límite de deformación, tendremos que poner una pieza “gorda” que lo cubra, aunque de cara a su resistencia estemos sobredimensionándola. Lo ideal es que el factor de seguridad esté en torno a 1,5 con todos los criterios, lo cual a veces se puede conseguir con un adecuado diseño (sería lo óptimo), pero no siempre es así. Pero bueno, también puede haber razones más prosaicas: a lo mejor el factor era de 1,7 porque la tecnología no permitía hacer una pieza con factor 1,5 (a lo mejor los espesores ya estaban en el mínimo fabricable, por ejemplo), o simplemente porque tras el diseño se comprobó el cálculo, salió 1,7, y se vio que el sobrepeso era tan pequeño que no merecía la pena rediseñar más para acercarlo a 1,5. En fin, que razones hay muchas, pero ello no significa que no podamos bajar el margen si es necesario.

2. Supongamos ahora que el factor era el que fuera (1,7, 1,5…) y tras el daño nos quedamos por debajo del mínimo (1,5). ¿Qué pasa ahora?

Pues ahora sí que estamos ante un problema de verdad. Porque no es lo mismo encontrarnos esto en tierra que con el aparato ya en órbita.

Evidentemente, si nos encontramos este problema en tierra, pues se repara, se restablece el factor de seguridad a su valor original, y todo arreglado. Aquí habría pocas discusiones; de hecho, ninguna: es lo que hay que hacer, y punto, nadie lo discutiría. Ahora bien, ¿qué pasa si esto sucede, como ahora, cuando la nave ya está en órbita, y no puede repararse “como es debido” en un taller con todos los medios?

Supongamos que, como en este caso, cabe la posibilidad de realizar una reparación de emergencia en el espacio. Si con el daño el factor de seguridad ha bajado por debajo del mínimo (1,5), parece que la decisión sería fácil, ¿no? Reparar, y no hay más que hablar.

Pues tampoco es tan fácil. Primero, tendríamos que ver cómo afecta realmente el factor de seguridad de esa pieza. Es decir, puede ser que para esa pieza el factor de seguridad haya bajado por debajo de 1,5, pero que para el conjunto siga estando por encima (porque los sobreesfuerzos los soporten las piezas de su entorno). O puede ser que se asuma el posible fallo de esa pieza porque dicho fallo no suponga el fallo global del vehículo, sino sólo “molestias” como daños locales a reparar posteriormente en tierra.

En ese caso, caben las dos opciones: reparar, para ganar margen de seguridad, o para evitar daños mayores que supongan más problemas posteriores (aunque no sean un riesgo para esa misión), o no reparar. De nuevo, parece que lo lógico sería reparar… ¿pero y si la reparación añade riesgos por sí misma? Es el caso del daño sufrido en esta ocasión por el Endeavour: enviar un astronauta a reparar las losetas supone el riesgo de que durante su actividad golpee involuntariamente otra parte del escudo térmico, y provoque un daño quizás mayor del que intenta solucionar; puede que no sea un riesgo alto, pero existe, y en ese caso hay que decidir entre dos opciones que ya no son tan claras. La decisión se complica, y en ocasiones no hay forma de poder saber cuál es la mejor. En el caso del Endeavour, que es exactamente éste, se ha optado por la más segura: frente a una posibilidad, aunque sea remota, de que el astronauta “reparador” cause más daños de los que pretende arreglar, se ha optado por asumir que el vehículo pueda tener que someterse a una reparación mayor al llegar a la Tierra, porque los cálculos demuestran que podrá volver sin peligro para sus ocupantes.

Pero, ¿y si el daño ha hecho bajar el factor de seguridad por debajo de 1,5 para la globalidad del vehículo?

De nuevo la solución parece fácil: no es aceptable. Claro, ésa es la respuesta cómoda, y la que daríamos en tierra, donde no hay nada que perder. Pero, ¿y si estamos ya en órbita, y de nuevo la reparación representa riesgos? Pues bien, si el factor de seguridad ha caído, por ejemplo, a 0,8, entonces no cabe duda: el sistema va a fallar, seguro, así que cualquier alternativa es mejor. Pero si estamos, por ejemplo, en 1,3, teóricamente aún poseemos un 30% de margen. ¿Qué hacemos?

Lo que acabo de decir es una falacia: no podemos decir que tengamos un 30% de margen. De hecho, no sabemos qué margen tenemos. Ese 30% es teórico, porque nuestros cálculos no son exactos. Son muy precisos, sí, pero no representan la realidad al 100,00%. Todos nuestros cálculos y aproximaciones tienen una cierta incertidumbre que a menudo no conocemos, que sabemos que queda cubierta con creces por el factor de 1,5, pero no sabemos con certeza con cuánto margen. Generalmente esas incertidumbres son conservativas, es decir, generalmente nuestros cálculos y modelos matemáticos son conservadores frente a la realidad, pero no podemos asegurar que sea siempre así. Y no se trata sólo de cubrir nuestras incertidumbres, sino las de la naturaleza: en ese 1,5 también se cuenta con que pueda haber imprevistos en el entorno, situaciones más allá de las previstas en el diseño (aunque se diseña para “el peor caso”, nunca sabemos si realmente habrá otro peor aún, aunque sea poco probable). De modo que un 1,3 no supone que tengamos un margen real de un 30%. Realmente, sólo podemos decir que estamos por debajo de lo que pide la norma, y por encima de lo que piden nuestros cálculos. Probablemente aguante… pero nadie puede afirmarlo.

Aquí sí que estaríamos ante una decisión realmente difícil, y crítica. ¿Qué hacer? Si es posible, buscar una alternativa: una misión de rescate, por ejemplo. Pero si no lo es, habrá que mojarse. En el caso del Endeavour, probablemente se repararía, porque seguramente se considerarían menores esos riesgos que el de un retorno en esas condiciones, pero en otros casos la decisión puede ser más difícil. Por otra parte, seguramente tampoco podríamos saber si una reparación de emergencia nos iba a restablecer el factor de seguridad original, o sólo a subir el actual en una cantidad indeterminada… En fin, la cosa es complicada.

Enlazando de nuevo con el comentario de Omalaled, nos dice que “quienes hablan a la prensa sean siempre los que menos cálculos hacen”, aunque quiero entender que también se refiere a que quienes toman las decisiones no son precisamente los técnicos que han hecho los cálculos.

Esto es una puntualización importante, y es claro que en muchas ocasiones ha sido fuente de graves problemas y de accidentes. El del Columbia es un ejemplo clarísimo. Pero no porque los gestores sean inhumanos, que no lo son, y quieren la feliz terminación del problema como el que más, sino por fallos de comunicación: porque a menudo los técnicos no son (somos) capaces de transmitir la situación con la necesaria claridad para poder tomar una decisión óptima. De nuevo, se ha escrito mucho sobre esto, y a lo mejor a alguno le suena lo de “los peligros del Power Point”, a veces señalado como si el programa fuera el culpable de esta pérdida de información en la transmisión de la misma, y como si esto no pasara antes de que existiera Microsoft… En realidad es más complejo, pero es un problema que forma parte del día a día de nuestro trabajo, aunque no seamos conscientes de ello; y un tema de gran interés en el que, como digo, ya se han fijado incluso en el campo de la medicina, pues se da en todos los sectores.

¿Y por qué no deciden los técnicos, y nos evitamos el problema de la transmisión eficaz de la información? Pues porque a menudo tampoco tienen toda la información. Porque a menudo un técnico tiende a focalizarse en el problema concreto que está estudiando, magnificándolo muy por encima de otros problemas en otras áreas. Porque el técnico no suele tener la visión global del problema. Nos guste o no, al final son otros, con una visión más global, a los que les toca decidir, tras sopesar los pros y los contras de cada alternativa. No los gestores propiamente dichos, sino técnicos también pero con un alto nivel de gestión en sus competencias: directores técnicos, por ejemplo. Que no son los que calculan, eso es evidente. Sin embargo, que tomen la decisión ellos es la menos mala de las opciones.

Como decía al principio, se trata de un problema complejo, pero muy interesante.

BIBLIOGRAFÍA:

Para quien le pueda interesar profundizar más en estos temas, aquí hay algunas fuentes interesantes, las dos últimas disponibles por Internet (además de “Houston, tenemos un problema”, claro…:-)

· The Limits of Safety. Scott Sagan. Princeton University Press, 1995.
· Columbia Accident Investigation Board Report, Vol. 1, Chapters 5, 6, 7, 8. CAIB, Washington D.C., agosto 2003.
· Report of the Presidential Commission on the Space Shuttle Challenger Accident, Appendix F. Richard P. Feynman, 1986.

7 comentarios:

Anónimo dijo...

Estoy en parte (y sólo en parte) de acuerdo contigo.

Estoy de acuerdo en que los técnicos somos a veces un tanto catastrofistas, pero si no tenemos visión global es porque no nos dejan. Cualquier técnico que haya pasado por diferentes sitios en una empresa (sea una central térmica o empresa aerospacial) rápidamente se hace a la idea de los problemas de cada departamento, cosa que los gerentes no tienen ni idea. A veces no tienen idea de cuáles son los problemas de su propio departamento. Por eso, no estoy de acuerdo en que las decisiones las tomen gente no técnica. Por mucha visión global que tenga. Y si la toman y se equivocan, de patitas en la calle. Hoy día da miedo ver cómo las decisiones equivocadas son camufladas y rápidamente ves el trasfondo económico.

El libro de Feynman ("¿Qué te importa lo que piensen los demás?"), cuando preguntaban a los técnicos la probabilidad de fallo de un motor decían 1 sobre 200 y cuando se lo preguntaban al jefe decía 0 menos épsilon (al final decía 1 entre 100.000). Y lo bueno es que ese número se lo creía a pies juntillas.

En mi opinión, las normativas deberían ser mucho más claras y estrictas. Yo he trabajado en una central nuclear y bueno, suerte que está súper-sobredimensionada, que si no ...

Las inversiones en mantenimiento siempre tieneden a minimizarse, porque no se ve su beneficio y hay gente de poder (normalmente no técnica) que rápidamente habla de ahorro al reducir el mantenimiento.

Y cuidado, ser técnico no es una cuestión de carrera (aunque también cuenta), sino de mentalidad.

Yo pienso que, en el fondo, cuentan riesgo versus beneficios. Está claro que si pedimos más seguridad estamos pidiendo más dinero. Llega un punto que hacer un juicio y perderlo sale más barato que hacer el mantenimiento.

Sí, los de la MASA habrán hecho cálculos de probabilidades que no nos explican: ¿probabilidad de que la nave reviente? ¿pérdidas de si revienta la nave? ¿precio de arreglarla en el espacio? Y en estos cálculos, las vidas humanas apenas valen dinero. Hmmm, así a ojo ... ¡no pasa nada!.

Después de ver cómo en Barcelona se caía un edificio por hacer debajo un túnel de metro ... uno espera cualquier cosa :-)

Gracias por citarme y por el post.

Buscaré el libro que citas (todavía espero el de von Braun) pero en la biblioteca :( Si entran más libros en mi casa, mi mujer me echa.

Salud!

JCasado dijo...

Lo que comentas pasa, ¡claro que pasa!, pero creo que es compatible con lo que comentaba yo (sólo que quizás estaba manteniéndome en un terreno más "ideal", sin entrar en estos casos).

Por ir por partes: yo no he dicho, ni creo, que los técnicos seamos catastrofistas (bueno, siempre hay excepciones, como en todo), lo que digo es que tendemos a magnificar el problema que estamos estudiando en concreto frente a los demás, y eso creo que en general es cierto (también hay excepciones, por supuesto, y para mí esos son los mejores técnicos, los que no van con orejeras). Cuando escribí eso me acordé de una especie de chiste que vi el primer año que me puse a trabajar, al terminar la carrera (lo busqué por internet para colgarlo en el post, pero no fui capaz de localizarlo): era "cómo saldría un avión en función del técnico que lo hiciera" (siempre relacionado con especialidades dentro de lo que es una empresa aeronáutica). Estaba el de "masas": un avión de madera de balsa y papel de seda; el de "costes": un avión de tablones de madera y clavos, todo cuadrado; el de "aerodinámica", un avión de lo más estilizado y suave, todo ala y sin fuselaje; el de "cálculo": una viga en "H" por ala, y otra por fuselaje, y así sucesivamente. En su día me hizo gracia, lógicamente, y ya está. Pero con los años he comprobado que, efectivamente, es la pura realidad: con la especialización, la gente tiende a no ver más que "sus" problemas, y los de los demás no son tan importantes. Según mi experiencia, eso es así en un gran porcentaje. Por eso creo que se necesita que alguien con una visión más global tome las decisiones "de compromiso" que afecten a diversas áreas. Pero no he dicho que tenga que ser un gestor, como apuntas, de hecho creo que no debe serlo, porque, efectivamente, suelen estar bastante desconectados del problema técnico (aunque, como decía en mi texto, creo que eso es culpa de todos). Comentaba que dicha decisión debía estar en manos de un director técnico o algo similar; es decir, un técnico, una persona con sólida base técnica, pero con visión y responsabilidad global sobre el área técnica, aunque su trabajo sea en gran medida de gestión. Una persona próxima a los técnicos y capaz de entender sus problemas y su lenguaje. Efectivamente, como dices, eso no siempre es así, y a menudo los que deciden son puros gestores, que lo hacen en base a criterios más basados en el coste y los plazos (de nuevo volvemos a que cada uno ve como más importante el problema que tiene más próximo). Pero yo no defiendo que sean estos gestores los que decidan, en absoluto, ése es otro tema.

Por supuesto, también es cierto que la cosa no termina ahí; un técnico (metamos aquí a los directores, o responsables de decidir) puede tomar su decisión muy presionado por esos gestores, y eso también pasa. Por volver a poner ejemplos relacionados con este blog, el accidente del Challenger fue un caso evidente, cuando el gestor de la NASA presionó al responsable técnico hasta lo indecible, hasta conseguir que cambiase su recomendación de no despegar; aunque al mismo tiempo se lavaba las manos con un "no, yo nunca voy a contradecir el criterio técnico". Por supuesto que pasan estas cosas, demasiado.

Por eso decía que las regulaciones y las normas, al menos en casos que conozco como la aeronáutica, que está muy regulada (supongo que la industria nuclear será muy similar) nos salvan de nuestros propios errores; en esos errores incluyo también estos otros intereses poco confesables. Afortunadamente, las normas nos salvan en buena medida de todo eso: en el caso de las centrales nucleares, tú comentas que por estas regulaciones están super-sobredimensionadas. En el caso de los aviones no puede ser así porque no volarían, pero los controles de todo tipo son de lo más estricto, desde la regulación de los programas y métodos de cálculo (haciendo no aceptables muchos que sí lo son en la industria en general, simplemente porque quizás no existe un histórico de fiabilidad suficiente) hasta la necesidad de múltiples ensayos finales que validen dichos cálculos, pasando por exhaustivos controles en los materiales y proveedores utilizados, entre otros. Todo ello limita considerablemente el margen de maniobra que pueda haber con esas "malas prácticas", consiguiendo que finalmente la cosa funcione a pesar de todo. Pero claro que pasa lo que dices.

La anécdota (por llamarla de alguna forma) que comentas de Feynman (que, por cierto, por lo que dices creo que está sacada del apéndice F del informe del Challenger) es un ejemplo claro de los fallos de comunicación que comentaba yo. Efectivamente, como dices, en esa anécdota el gestor da un número absolutamente irreal, pero el tío está convencido de que es correcto. Un ejemplo claro de desconexión entre unos y otros, de graves problemas de comunicación en la organización. Como decía, soy un completo neófito en esto, pero es algo en lo que los expertos inciden muchísimo para solucionar gran parte de estos problemas: una correcta comunicación (mucho más fácil de decir que de hacer) y una adecuada cultura de empresa (esto ya es casi ciencia-ficción, al menos en la industria privada).

Así que estoy de acuerdo con lo que dices, pero creo que no cambia lo que decía yo. En lo que no estoy en absoluto de acuerdo es en uno de tus últimos párrafos, donde dices que "en estos cálculos, las vidas humanas apenas valen dinero". No digo que no haya gente inhumana por el mundo, pero afortunadamente son los menos, y sinceramente creo que (casi) nadie pondría vidas humanas en la balanza en estos casos, por mucho beneficio que hubiera en el otro platillo. (Hay excepciones, y ahí tenemos la mafia y otras organizaciones, pero se supone que hablamos de lo "normal", no de esas excepciones). Los gestores también son personas. Lo que pasa es que, de nuevo, a menudo están cegados con sus problemas (costes, plazos, etc) y los de los demás son "exageraciones" (sí, por supuesto que los técnicos no tenemos la exclusividad de la magnificación de nuestros problemas; es algo natural). Si a esto le unimos los fallos de comunicación y el exceso de confianza (otro mecanismo psicológico humano bastante natural cuando las cosas llevan un tiempo saliendo bien), ya tenemos el terreno abonado para que se tomen decisiones como las que comentas, donde se pueden llegar a arriesgar vidas humanas por tonterías... sin ni siquiera ser conscientes de que se está haciendo así. Ambos, Challenger y Columbia son buenos ejemplos de esto. En el caso del Columbia, por ejemplo, reconozco que mientras me documentaba llegué a sentir simpatías hacia Linda Ham, la gestora "culpable" de no haber investigado lo necesario para descubrir la magnitud del problema: y es que, por culpa de muchísimas cosas, de fallos de mucha gente, del clima del entorno, etc, nunca llegó a ser consciente de la gravedad de la situación... y cuando ocurrió el accidente, se quedó hundida, fue lo último que podía esperar. No la estoy disculpando, lo que quiero hacer ver es que todos somos humanos, y que probablemente muchos en su situación hubiéramos terminado actuando igual. Por eso digo que el tema es muy complejo, y no depende sólo de ser o no íntegro en tu trabajo... Si el entorno es el apropiado, puede arrastrarte como un torrente sin que te des ni cuenta. Y eso es lo realmente peligroso.

Son divertidos estos debates :-)

JCasado dijo...

Pensando un poco más sobre estos temas, a riesgo de recibir una lluvia de críticas, no voy a reprimirme de echar algunas piedras contra nuestro tejado al criticar a cierto tipo de técnicos: los que yo llamo "los integristas".

Y es que está claro que hay cosas que marcan un límite, y la seguridad es una de ellas. Pero también hay técnicos para quienes cualquier concesión hecha en nombre de los costes o los plazos (por ejemplo) es un crimen, para los que aceptar cualquier cosa que no sea "lo mejor, el no va más", es un sacrilegio. Y no debemos perder el norte. Hace poco leí una definición simpática de ingeniero en inglés: aquel capaz de hacer por veinte dólares lo que cualquier imbécil podría hacer por veinte mil. Vale que es una sobresimplificación, pero tiene mucho de cierto, y es algo que no debemos olvidar. Hay cosas en las que no se debe ceder, como la seguridad. Pero no debemos olvidar que, sin preocupación por los costes y los plazos, y (aunque pueda parecer pecado en boca de un técnico) los beneficios empresariales, no tendríamos el nivel tecnológico que disfrutamos actualmente. Celo técnico, sí, con sentido común. Integrismo, no.

He conocido algún que otro "integrista" de estos a lo largo de mi vida profesional, y desde luego que no considero que por ello sean mejores técnicos, más bien al contrario. Eso no quita para que haya cosas en las que no se deba ceder, por mucho que te presionen (y también he vivido estos casos). Una cosa no quita la otra, a veces simplemente se trata de tener un poco de perspectiva y sentido común.

Quizás no venía muy a cuento con el tema tratado, pero ha sido una elucubración más que me ha venido a la mente...

Anónimo dijo...

Ufff, al final llegaremos a la conclusión de que las cosas dependen del buen criterio de la persona que las lleva :-)

No todos los técnicos son perfectos, pero en teoría sus cálculos deberían ser muy parecidos.

Creo que coincidimos en todo salvo en el detalle de las personas. Si a una compañía aérea le dicen que con n revisiones caerán 10 aviones al cabo de 100 años y con 2n revisiones caerán 9 tenemos servido el debate en qué es más importante: si el ahorro de la mitad de revisiones frente al coste del avión o el de las vidas de ese avión. Y aquí es donde creo que las vidas no se valoran (siempre y cuando sea la de uno propio). Sé que no viene a cuento y no me malinterpretes, pero recuerda la expresión "efectos colaterales".

Otro punto que quería comentarte es que el técnico (mejor, el que hace el trabajo "de campo") es hoy día muy poco valorado y muy mal pagado y contratado. Cosa que veo muy peligrosa.

Si un tío que tiene que revisar las soldaduras de un avión o lo que sea tiene un contrato temporal que no sabe si lo van a echar mañana, hará su trabajo de mala gana. Sí, los papeles oficiales dirán que la revisión está hecha y muy bien hecha, con montonoes de firmas y habrán cobrado millones por dicha revisión; pero el que ha hecho físicamente ese trabajo es una sola persona que no se sabe si lo ha hecho bien o mal: toda la parafernalia burocrática y el trabajo importante lo ha hecho un tío mal pagado y desmotivado ... ¿no pone los pelos de punta?

Sí, estos debates son muy divertidos :-)

P.D. Creo que la nave ya ha aterrizado y todo ha ido bien ... ¡menos mal! :-)

Salud!

JCasado dijo...

Pues, expuesto así, también coincidimos en lo de las personas. Y es que, planteado de esa forma, el concepto se hace mucho más "etéreo" y se pueden tomar las decisiones fácilmente sin pensar que estás jugando con vidas. Si manejas un tanto por ciento de probabilidad de accidente (que nunca va a ser nulo, y lo sabes), es fácil justificar poner un determinado límite superior (siempre que sea "suficientemente" bajo) si se obtienen ventajas por otro lado. Por eso es bueno, y necesario, que los temas de seguridad estén regulados, y que, siguiendo el ejemplo que pones, existan unos criterios mínimos para las revisiones, pues sabemos que las compañías se ceñirán siempre a esos mínimos.

Pero esto también da para la reflexión, porque todos sabemos que esos mínimos pueden elevarse, que la seguridad casi siempre puede mejorarse. Pero, ¿a qué coste? Y no me refiero sólo al coste económico, sino hasta social. Pongamos un ejemplo más cercano para todos: el automóvil. Podría imponerse que todos los que se venden lleven 8 airbags, y control de tracción, y ABS, y cinturones de seguridad que se conecten solos al entrar, y detectores automáticos del nivel de alcoholemia del conductor, y que se eleven los criterios mínimos para pasar los ensayos de choque, etc. Seguro que de esta forma bajaríamos el número de víctimas. Pero, ¿cuántas personas podrían comprarse un coche? ¿Estamos dispuestos a asumirlo? Quizás he ido un poco al extremo, pero de una forma u otra siempre es así, el nivel de seguridad también es siempre un nivel elegido como solución de compromiso frente a muchos otros factores de diverso tipo.

Sobre tus últimas reflexiones, también totalmente de acuerdo. Es cierto, los técnicos estamos pésimamente pagados (aprovecho desde aquí para solicitar un inmediato y sustancioso aumento de sueldo; por probar…). Bueno, sin coña, es cierto todo eso, la desmotivación y falta de interés que puede provocar, que hace que al final todo dependa de que el individuo tenga el suficiente sentimiento de responsabilidad y profesionalidad como para hacer su trabajo correctamente pese al cabreo que pueda arrastrar (tras ser llamado, por ejemplo, a las 3 de la mañana de un sábado para solucionar un problema crítico, sin que se le pague un duro por esas horas extras; en España se asume que eso “va en el sueldo” del ingeniero, aunque dicho sueldo ya haga años que no destaca sobre el de cualquier otra profesión; muy distinto es en Estados Unidos, por ejemplo, donde no sólo los sueldos de los ingenieros pueden ser fácilmente el triple que aquí, sino que encima se pagan las horas extras; hale, ya me desahogué). Y también estoy de acuerdo en lo otro, en la forma que hay, en cierto modo, de saltarse la normativa (o, al menos, su espíritu), llenando decenas de documentos con sellos y firmas para un trabajo que ha hecho un becario… Eso también se da, y ahí creo que la mejor solución es que, si ocurre algo, a la empresa “se la cruja” pero bien, para que se le quiten las ganas de repetir. Pero en fin, ya sabemos que eso sería en un mundo ideal…

¡Saludos!

Anónimo dijo...

Hay una diferencia muy grande en el ejemplo que pones del coche y el de la compañía aérea.

Cuando hablas del coche eres tú quien asume el riesgo y tú quien los conoce. Si no llevas 8 airbags, ajustarás la velocidad para minimizarlos, pero siguiendo siempre tu criterio y tienes la posibilidad de poner los medios necesarios para minimizar riesgos; pero todo esta bajo tu control.

En el caso de la compañía aérea son otros los que conocen los riesgos y nosotros no podemos hacer nada. No nos venden pasajes más caros o baratos en función del nivel de seguridad que deseamos.

Todo lo contrario: nos tienen desinformados hasta el máximo de sus posibilidades. ¿Recuerdas que tenían unos listados con compañías que no cumplían normativas pero no las publicaban? Para mí es un ejemplo o bien de censura o bien de engaño.

La compañía aérea te vende motos diciendo que sus aviones tienen la mejor garantía de calidad, seguridad, que sus técnicos son los número uno y sus pilotos la releche y bla bla bla.

Como técnico, entiendo que puede haber situaciones inesperadas, no calculadas y totalmente fuera del alcance de la previsión. Esos accidentes los asumo al igual al riesgo a que te caiga un ladrillo en la cabeza; pero lo que no asumo es la negligencia, el que se haga el trabajo mal hecho por beneficio, el enterarte que el motor no se había revisado correctamente, que el tren de aterrizaje había pasado 3 revisiones en lugar de las 5 que hacía falta, que el piloto llevaba 24 horas sin dormir, etc. Que el piloto se había quejado de algo que fallaba y no le habían hecho caso, etc.

Son esas las cosas a las que yo me refiero, no me malinterpretes. Ahí es donde hablo de burocracia empresarial. No critico el error inasumible, sino la negligencia.

Un cordial saludo.

JCasado dijo...

Creo que no te malinterpreto, de hecho creo que en el fondo estamos diciendo lo mismo.

Yo simplemente me refería a que la normativa debe imponer unos límites mínimos a la seguridad, y que al fijar esos mínimos siempre hay que hacer concesiones. Si luego alguien quiere operar por encima de esos mínimos, genial. La diferencia que señalas con los coches, en los que tú puedes elegir por encima de esos mínimos, creo que es simplemente porque hablamos de adquirir un bien, y no un servicio. Si te fijas en la parte "servicio", como pueden ser los taxis, o los autobuses, o el ferrocarril... la situación es la misma que en aeronáutica: tú no eliges el vehículo. Así que más vale que los mínimos fijados por la normativa sean adecuados. Otra cosa sería hablar de por qué en esos casos no puedes elegir, pero creo que es simplemente porque no se ha detectado un mercado potencial para ofrecer opciones; en cualquier caso, ése es otro tema.

Por lo demás, lo que comentas de negligencias o de saltarse las normas, pues totalmente de acuerdo, por supuesto. Si hay normas, es para cumplirlas. Y al que no lo haga, palo y del gordo. Y si no se hace así, ya es otra cuestión, aunque desde luego me parece inaceptable.

¡Saludos!