El neurólogo Patricio Labal analizó el impacto de la inteligencia artificial (IA) en la vida cotidiana y, especialmente, en la medicina. Destacó el enorme aporte que estas herramientas ya realizan en el diagnóstico, sobre todo en neurorradiología, pero advirtió que la tecnología también puede volverse un atajo peligroso si reemplaza el razonamiento humano. El especialista abordó los desafíos éticos y legales, el riesgo de que “la cabeza deje de trabajar” y la urgencia de mantener el examen clínico y el pensamiento crítico: “La medicina es un arte que requiere unir información. Sin eso, no hay diagnóstico posible”.
Ushuaia.- La irrupción acelerada de la inteligencia artificial (IA) en la vida cotidiana genera entusiasmo, dudas, temores y una sensación general de desorientación. ¿Qué va a pasar con nuestros trabajos? ¿Qué tareas quedarán en manos de las máquinas? ¿Qué ocurrirá con nuestra capacidad de aprender, memorizar o tomar decisiones?
En una entrevista profunda con FM Master’s, el neurólogo Dr. Patricio Labal se adentró en un terreno donde conviven los avances médicos más revolucionarios y los dilemas humanos más básicos como por ejemplo qué hacemos con nuestra propia cabeza frente a esta revolución tecnológica.
“Antes que nada, quiero aclarar que no soy especialista en inteligencia artificial”, arrancó con honestidad, pero como todos, estoy “haciendo mis primeras armas y hoy, a mí personalmente, la IA me genera más dudas que certezas”, dijo Patricio Labal, marcando que “la herramienta es poderosa, pero si no pensamos, no aprendemos”.
El experimento de “la vaca”: cuando el cerebro deja de registrar
Para ilustrar ese desconcierto, Labal contó un estudio realizado en una universidad británica, donde tres grupos de estudiantes debían escribir una composición sobre “la vaca”.
El primer grupo: sin tecnología, el segundo grupo con buscador de Google y el tercer grupo con inteligencia artificial.
La sorpresa llegó después, dado que “quienes trabajaron con IA solo pudieron recordar un 20% de lo que habían entregado, no sabían qué habían escrito, no lo procesaron, no lo registraron y el conocimiento no entró”, resumió.
Labal sostuvo que “ese fenómeno ya ocurre en colegios y universidades, donde la herramienta se usa como reemplazo de la comprensión, entonces si usamos la IA pero no revisamos lo que hacemos, no sirve, es como si el cerebro no participara”.
“Las empresas hoy procesan datos con IA, pero luego requieren que el empleado razone, tome decisiones, interprete, si el cerebro no trabaja, no aprende”, afirmó Labal.
“El problema no es la herramienta, sino cómo la usamos”.
El riesgo de no saber si lo que vemos es real
El neurólogo también advirtió sobre otro efecto colateral como lo es la distorsión de la realidad, al sostener que “en redes veo fotos o videos que no sé si son reales o hechos con inteligencia artificial, nos vamos a empezar a engañar con todo”, dijo.
Esto, señaló, obliga a un “nuevo tipo de ciudadanía, más crítica, más activa y menos superficial, por lo que no podemos informarnos de manera ligera, si una noticia genera dudas, hay que revisar la fuente, investigar, no queda otra”.
La medicina: donde la IA ya es una revolución silenciosa
En su campo, la neurología, la inteligencia artificial ya “está transformando el diagnóstico por imágenes, es una explosión”, aseguró.
Los sistemas alimentados con cientos de miles de estudios permiten ayudar al radiólogo a identificar estructuras, patrones y anomalías con una precisión inédita.
“Mientras yo describo un micrófono durante quince minutos, la IA te genera en segundos un informe de varias páginas”, ejemplificó.
En neurorradiología, esto se traduce en “diagnósticos más rápidos y potencialmente más precisos, aunque todavía en centros privados nacionales de alta complejidad, hay tres o cuatro instituciones en el país que están trabajando con la última tecnología”, explicó.
A nivel local, la buena noticia es que el convenio de una clínica con el Hospital Italiano permitirá incorporar inteligencia artificial para analizar estudios, algo que Labal celebró como un “salto significativo”.
Pero no todo es perfecto: también hay errores
A pesar del entusiasmo tecnológico, Labal hizo una advertencia clave, dado que ya se detectaron diagnósticos erróneos generados por IA.
“Hay que usarla con sentido crítico, no es palabra divina, la última palabra la tiene que tener el médico”, sostuvo con firmeza.
El vacío legal: otra preocupación creciente
Uno de los puntos más sensibles y menos discutidos es el aspecto jurídico.
“No es lo mismo que un informe lo firme un médico y sea su interpretación, a que uno diga ‘esto me lo dio la inteligencia artificial’. No hay legislación. Todo queda en un limbo”, remarcó.
Consultado sobre si los médicos citan en sus informes que usaron IA, Labal explicó que “no se menciona como tal, sino que aparece en la descripción técnica del equipamiento, aunque aún está lejos de la práctica cotidiana de la mayoría de las instituciones”.
La medicina sigue siendo un “arte, donde hay que volver a tocar, escuchar, observar”.
En un momento reflexivo, Labal dijo que la irrupción de la IA lo obliga a “dar un paso atrás” y recordar que la “medicina, antes que una ciencia exacta, es un arte”.
“El arte de unir información. Lo que dice el paciente, lo que uno examina, lo que ve en un estudio y hoy hemos perdido el examen físico, ya no palpamos, no escultamos, no tomamos un reflejo, eso es un error”, afirmó.
Y agregó una definición contundente al manifestar que “la inteligencia artificial no puede reemplazar el contacto humano, no puede ver, escuchar o sentir lo que siente un médico frente a un paciente.”
El desafío final: seguir usando la cabeza
Para Labal, la clave no es “temerle a la IA, sino integrarla sin renunciar al pensamiento crítico, hay que seguir usando la cabeza y mucho”, insistió.
“Los chicos del tercer grupo del experimento escribieron perfecto, pero no sabían qué habían escrito, no fijaron conocimiento, eso es lo que no podemos permitir”, concluyó Labal.

