«La cuestión de si una computadora puede pensar no es más interesante que la cuestión de si un submarino puede nadar».
Edsger Dijkstra (1G84)
El término “inteligencia artificial” (IA) se hace oficial en 1956 en la llamada Conferencia de Darmouth (Hanover, EE.UU.), el considerado punto de arranque de lo que hoy entendemos por ciencia de la IA. Allí, John McCarthy, el matemático promotor del encuentro, dijo: Cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, ser descrito con tanta precisión que puede construirse una máquina que lo simule. Este entusiasta arranque aún no ha culminado en la realidad actual su estado de plenitud, pero no cabe duda de que estas primeras décadas del siglo XXI son, en términos del lenguaje al uso en IA, la más espectacular de sus primaveras.
En octubre de 1950 Allan Turing había publicado su artículo seminal que comenzaba proponiendo al lector responder a la pregunta: ¿Pueden las máquinas pensar? El mismo, rápidamente, trata de eludir las trampas semánticas de la pregunta y nos propone cambiarla por “un juego de imitación” en el que un interrogador trate de descubrir con un dialogo a través de teclado y pantalla si está hablando con un humano o con una máquina. Simplificando muy groseramente su elaboradísimo artículo y anticipadora discusión (abre escenarios e interrogantes que están hoy, setenta y cinco años después, de pujante actualidad) transcribimos lo que apunta como su opinión:... creo que a finales de siglo el uso de las palabras y la opinión educada general habrán cambiado tanto que uno podrá hablar de que las máquinas piensan sin esperar ser contradicho.
Hoy se habla poco del llamado “Test de Turing” ya que no esperamos que la máquina pueda engañarnos y la tomemos por un humano, sino que nos muestre que es mucho mejor que nosotros para determinadas tareas y eso, ya ha ocurrido. Se ha vaticinado que en 2045 se alcanzará la singularidad tecnológica, es decir, la “inteligencia máquina será superior a la inteligencia humana”. Esta fecha ha sido ampliamente cuestionada por los expertos. La IA es por ahora “débil y específica” no “fuerte y general”, como requerirá la singularidad tecnológica, aunque su aplicabilidad en determinados campos, ya hoy, nos deslumbra. Para ponernos en situación del modo correcto, deberíamos distinguir entre el desarrollo exponencial de la potencia de computación y la IA generativa.
Los profesionales actuales crecimos con el gigantesco y espectacular desarrollo de la computación y la hemos incorporado sin darnos cuenta, o sí, como rutina a nuestras vidas. En 1996 asistimos boquiabiertos a la partida de ajedrez en que Deep Blue ganó a Gary Kaspárov y nos deslumbramos tanto que casi nadie recuerda que Kaspárov ganó tres y empató dos de las partidas restantes. En definitiva, ganó Kaspárov y hubo y que esperar un año a la puesta en marcha de Deeper Blue, mucho más rápida y potente que su predecesora, con capacidad para calcular 200 movimientos por segundo, para que ganar a la máquina por dos a uno y tres tablas. De algún modo, casi al final del siglo, había máquinas que podían “pensar más cosas con reglas preestablecidas por nosotros” pero no abrumadoramente mejor que un humano.
Pero la ciencia de la IA nos trajo máquinas capaces de “ver” entre miles de datos patrones lógicos que a los humanos se nos escapan por no poder “procesar” tanta información y lo que es más importante: Capaces de “aprender” de los resultados de sus propias decisiones cuando aplican nuestras reglas. Así en 2016 Alpha Goy poco después su sucesor Alpha Go Zero (que aprendía en pocas horas jugando contra si mismo) se convirtieron en imbatibles para los campeones humanos en el juego de estrategia más antiguo y complejo de la Historia.
La computación clásica trajo a la medicina la historia clínica electrónica que recoge toda la información que nos facilita el paciente, nos permite explotar sus estudios, leer los informes de nuestros compañeros y consultores, prescribir medicación, generar informes y un largo etc. que en situaciones de “inmersión total” llega hasta la gestión de toda la actividad no solo clínica sino también administrativa del hospital y del centro de salud y, aunque no se hizo así aunque se podía, el paciente puede viajar con todos sus registros médicos por todos los rincones del Sistema Nacional de Salud. Este salto de gigante en la actividad del médico y en la atención al paciente tiene el precio de “interponer” entre médico y paciente un ordenador que capta casi toda nuestra atención y hemos protestado por el número de “clics” que hemos de emplear para ver una analítica y prescribir un tratamiento. Hay médicos que han declarado sentirse oficinistas y piensan que tanto avance ha empobrecido su relación con el paciente. Quizá este tipo de sentimientos y otros similares son los que alimentan el entusiasmo actual por lo que la IA pueda traernos. Algunas clínicas ya han incorporado transcriptores de lenguaje oral que registran nuestra conversación con el paciente y generan un resumen final con los aspectos más relevantes y lo incorporan a la historia clínica. Ya podemos encargar a una aplicación tan mundana como Chat GPT que elabore un informe con nuestra historia y el resultado de las pruebas y añada un juicio clínico conforme a determinados criterios, que si están publicados no hemos de decirle, y unas recomendaciones terapéuticas que si pertenecen a un determinado protocolo, tampoco hemos de reescribir. En fin, parece vislumbrarse un ordenador “amigo” en nuestra tarea, en lugar de la actual pesada herramienta de nuestro día a día. Por ahora, todas estas ayudas requieren la supervisión humana, médica, de quien las utilice, aunque las llamadas “alucinaciones” y los errores de imputación que tienen los actuales “grandes modelos de lenguaje” (LLM) en que se basan, es cuestión de tiempo, y quizá no mucho, que sean eliminadas y/o subsanados.
Las redes neuronales y el aprendizaje profundo permitieron también la irrupción de la IA en el campo del diagnóstico. Geoffrey Hinton, uno de los padres de las redes neuronales y reciente Premio Nobel de Física, aventuró en 2016 que deberíamos dejar de formar radiólogos porque la IA los substituiría con ventaja. Su predicción no se ha cumplido, pero en determinadas áreas de diagnóstico por imagen la combinación hombre-máquina alcanza una fiabilidad diagnóstica superior al 98%. Como dijo Curtis Langlotz, Profesor de Radiología de la Universidad de Stanford “no es que la IA vaya a reemplazar a los radiólogos, pero los radiólogos que usen IA reemplazarán a los que no la usen”.
“Watson” de IBM, tras algún sonoro fracaso en sus comienzos, es hoy junto a otras muchas utilidades desarrolladas, una herramienta de interpretación de resultados para hacer un diagnóstico cierto y una propuesta terapéutica lógica, de altísima fiabilidad.
Y en toda esta alegre y fértil Primavera ¿Tenemos algún problema? Pues sí, muchos. El primero y principal es que los algoritmos no son neutrales. La IA no toma “per se” decisiones objetivas, racionales y correctas. Refleja las intenciones y sesgos del equipo que la programa, también sus errores y las intenciones de las entidades implicadas en su implementación, que no tienen porqué ser las más honestas. Como se ha dicho, no debemos temer que las máquinas nos hagan daño si no que nos hagan daño otros hombres a través de las máquinas.
Otro problema no menor es que el aprendizaje profundo no nos permite ver como y porqué toma el programa las decisiones que toma, la llamada caja negra. Los patrones en los datos biomédicos deben de explicarse por el conocimiento médico, no por la ciencia de datos. ¿Estará el médico dispuesto a trasmitir al paciente un juicio o una decisión terapéutica cuyas razones no puede explicarle? Y ¿estará el paciente decidido a aceptarlo?
Habremos de esforzarnos por seguir el buen camino. Incorporar con buen juicio lo que la ciencia nos ofrece. Superar incertidumbres y corregir los errores o
Insuficiencias actuales y así seguir cumpliendo la misión de preservar al hombre, eso sí, con nuevas y apasionantes herramientas.
Destacados
- Volumen y resultados: ¿es hora de un paso adelante en la regionalización de la cirugía?
- Prescripción potencialmente inadecuada en dos centros socio-sanitarios según los criterios START-STOPP
- Guía Farmacoterapéutica (GFT) unificada para hospitales del Servicio de Salud del Principado de Asturias
- Sistema de vigilancia del cáncer laboral en el Principado de Asturias Nota 1: Programa de detección y comunicación de cáncer profesional
- Biblioteca del Hospital Universitario Central de Asturias
Sugeridos desde E-Notas
- El sarampión, el canario en la mina
- Nueva Biblioteca Virtual gcSalud: un recurso clave para el Sistema Sanitario Público del Principado de Asturias
- ¿Podrá la inteligencia artificial mejorar la productividad del sistema sanitario?
- Conceptos probabilísticos en la toma de decisiones en salud. (II) Evaluación de las pruebas diagnósticas
- La incertidumbre y el análisis de bienestar de las prestaciones médicas o el nacimiento de la economía de la salud