lunes. 15.04.2024

El catedrático de Psicobiología de la Universidad Complutense de Madrid y responsable de la Sección de Neurociencia Cognitiva, Manuel Martín-Loeches, cree que la Inteligencia Artificial (IA) "no será un gran peligro" por sí misma mientras no se la instruya a tener "iniciativa" o "ideas propias" ni se le generen "necesidades".

Así lo ha indicado durante la presentación este lunes, junto al profesor de Psiquiatría de la Universidad de Córdoba y secretario de la Fundación Castilla del Pino, José María Valls, de la X edición de la 'Escuela de Psiquiatría. Fronteras de la inteligencia artificial' que se lleva a cabo esta semana en la Universidad Internacional Menéndez Pelayo (UIMP), en Santander, y que este año ahonda en lo ya abordado en este campo en la última edición de 2022 y en la posibilidad de que la IA pueda llegar a comportarse como un ser humano.

Martín-Loeches ha explicado que la IA es una herramienta con un poder "impresionante" que "cada vez lo tendrá más", pero que, "como en todo", los riesgos que puedan surgir tendrán lugar dependiendo del uso que el ser humano haga de ella. "Todo el mundo tiene un cuchillo en su casa y un cuchillo puede ser un arma mortal, pero también es una herramienta necesaria, entonces dependiendo de cómo lo uses, puede haber un riesgo o no", ha remarcado el catedrático de Psicobiología para ejemplificar el funcionamiento de esta nueva herramienta digital.

Esa 'humanización' de la IA es una de las temáticas centrales que se van a tratar en ese curso, en el que expertos de la filosofía, derecho, neurociencia, psiquiatría, psicología o informática hablarán sobre si hay o no la posibilidad de que exista un ordenador que se considere "un ser sin cerebro", y si ocurre, "¿tendrá derechos? ¿se podrá considerar persona o un sujeto? ¿tendrá trastornos psiquiátricos? ¿tendrá todo lo que tiene un ser humano?", ha planteado Martín-Loeches.

Como ha indicado, en la actualidad esto no es así, porque estas inteligencias artificiales no tienen emociones, sentimientos ni iniciativa, sino que siempre dependen de que alguien les haga una pregunta para responder. "Pero si le generamos necesidades, empezará la conversación y entonces será un sujeto que tiene necesidad", ha añadido.

Respecto a los beneficios, el experto en neurociencia ha asegurado que las IA pueden ayudar, en el campo de la ciencia, a descubrir "muchas cosas que nos llevarían decenas de años", y además, es una herramienta "que no se fatiga y es capaz de trabajar día y noche recibiendo datos o resumiéndolos", y aunque una persona también puede hacer ese trabajo "necesita muchas horas, alimentación y necesidades".

Por su parte, José María Valls ha explicado que frente a la conducta humana, que presenta un doble módulo compuesto por uno central "que decide qué va hacer", y otro operativo que "lleva a cabo ese proyecto", la IA solo tiene el segundo. Y esa es la cuestión que se planteará en el curso, la posibilidad de que se cree un módulo de mando central en la IA "que responda a necesidades propias de la máquina y que esta se plantee conductas concretas".

Por otro lado, ha destacado algunas de las aplicaciones en las que la IA ha sido de gran utilidad y que se van a explicar durante estos encuentros, como es el caso de una investigadora que ha podido "diferenciar cuatro emociones diferenciadas" en el llanto de los bebés recién nacidos y "cómo esas emociones tienen una expresión diferente según el idioma hablado por la madre durante el embarazo".

Y es que para Valls, la IA está entrando "en otra fase" en la medicina, un campo en el que gracias a esta tecnología es posible predecir el comportamiento de las proteínas o realizar mejores diagnósticos con el manejo miles de datos a la vez, entre muchas otras acciones.

Martín-Loeches, experto en neurociencia, advierte de los riesgos de la 'humanización'...
Comentarios