Oviedo, Javier NEIRA

La lógica es por definición la ciencia de la precisión o, más aún, la norma que indica qué es preciso -y qué no lo es- en el pensar y, por tanto, en el conocimiento y por extensión en todo lo demás, en la misma realidad exterior. Por eso hablar de lógica difusa -o borrosa o, en inglés, fuzzy- suena, de entrada, a contradicción y casi a broma pesada.

Pero no. En la vida cotidiana se razona según los presupuestos de la lógica difusa, establecida por Lofti Zadeh -iraní, nacido en Azerbayán en 1922 y profesor en la Universidad californiana de Berkeley-, y es que no tiene sentido advertir a un conductor que está aparcando su coche que se encuentra a 0,48 centímetros del bordillo sino que basta y sobra con indicarle que está bastante cerca pero que aún hay cierto margen. Y así con todo.

La lógica común es binaria y no sólo para el estatus particular de los ordenadores. La difusa, sin embargo, puede contemplar hasta siete estados diferentes de manera que en realidad la binaria es sólo un caso particular de la borrosa, que, en su aparente imprecisión, logra grados extremos de precisión porque se adapta como un guante a una mano a la que regula y mide.

Muchos sistemas expertos se podrían volver locos de regirse con una lógica binaria estándar que, según su funcionamiento, les llevaría a encenderse y apagarse repetidamente de superar por arriba o por abajo un valor determinado.

Sería el caso de un aparato de aire acondicionado, programado para mantener la temperatura de una sala en treinta grados centígrados. Las variaciones en torno a ese nivel, tanto por arriba como por abajo, le empujarían a un funcionamiento disparatado. Pero si se rige por lógica fuzzy, flexible y modulable, dejaría de parar y arrancar constantemente para adaptarse sin brusquedades a la cifra establecida.

Un avance en la línea de la lógica borrosa son las llamadas redes neuronales y la hibridación de la lógica difusa con técnicas de algoritmos genéticos que, en suma, logran que los aparatos aprendan.

La imprecisión puede suponer un salto adelante. Científicos del Instituto Tecnológico de Massachusetts han construido un chip que no sirve para cálculos matemáticos rigurosos, pero sí para tratamiento de imágenes: comete errores pero de escasa importancia y a cambio es cien veces más rápido.