La IA en la formación del investigador: la mediación de la ética

 

Edwin Santana
Dr. Edwin Santana-Soriano

En la entrega anterior delimitamos tres conceptos —inteligencia artificial, ética y ciencia— y llegamos a una primera tesis: sea cual sea la herramienta que se utilice en investigación científica, esta tiene que usarse desde la honestidad y el compromiso con la verdad. Nos quedó pendiente, sin embargo, un adjetivo: «formativa».

Investigación formativa

Si hablamos de investigación formativa, hacemos alusión a un conjunto de actividades mediante las cuales esperamos que el estudiante desarrolle, desde la práctica, la actitud y los procedimientos de un buen investigador.

Y esto choca con el uso que puede hacerse de la inteligencia artificial generativa en los procesos de investigación: la IA se usa para procesar y sintetizar, a petición del usuario, el conocimiento ya producido por otros. De modo que es bastante útil, pero el problema aquí es que su uso, específicamente en la formación de investigadores, se interpone precisamente en las acciones que el estudiante debe realizar para aprenderlas a ejecutar por sí mismo.

Lo que la IA no hace

A esto se añade una debilidad que hemos constatado en múltiples pruebas realizadas con distintos modelos de generación automática de texto.

En una de ellas, suministramos a varias IA una base de datos para que calcularan una correlación de Pearson. El cálculo era ejecutable y la IA lo ejecutó en todos los casos; nos entregó un resultado. Pero nunca llamó la atención sobre el hecho de que los datos no seguían una distribución normal y que, por tanto, ese estadístico no era aplicable al caso. De modo que el investigador debe saber cuáles estadísticos aplican, porque si no, aceptará como buenos unos números que carecen de validez y habrá perdido el tiempo y, en el peor de los casos, hará perder el tiempo a aquellos que tienen que evaluar su trabajo para decidir si sale o no a la luz pública.

En otro experimento, consultamos a varios modelos sobre hechos sociales documentados y obtuvimos respuestas que omitían datos ya constatados, probablemente por algunos sesgos heredados de sus programadores. Los resultados no eran falsos en el sentido corriente del término: eran incompletos, parciales, sesgados. Y lo eran porque en los artefactos no hay compromiso con la verdad, ni puede haberlo. La honestidad es una actitud humana; un artefacto no la posee ni puede poseerla.

Donde entra la ética

Y aquí es donde entra la ética, aquella que definimos como la actitud valorativa del sujeto que le lleva a actuar de los modos que considera buenos, correctos y justos en cada circunstancia que se le presenta. El investigador en formación que delega en la IA las acciones constitutivas de la investigación está asumiendo tácitamente una actitud frente a su propia formación: está decidiendo que el resultado le importa más que el proceso, que la apariencia de competencia le basta.

Y esta actitud tiene consecuencias.

La primera es de carácter intrínseco: el reconocimiento del propio sujeto como alguien deshonesto que hace daño a un bien común —la ciencia— al que se supone debería aportar positivamente. Nadie quiere que cuando va al médico lo que se le indique o diagnostique sea falso; quiere que sea verdadero. Nadie quiere ser atendido por un médico que diagnostica con datos falsos, ni ser asesorado por un historiador que omite evidencia. Lo que se le exige a cualquier profesional formado en una disciplina científica es que su competencia sea real, que esté formado con conocimientos reales sobre el mundo. Pero no podemos olvidar que esos conocimientos reales se construyen y consiguen mediante la ciencia, y que la ciencia no es una cosa, sino la suma de lo que todos hacemos y aportamos desde la investigación científica.

Esa primera consecuencia puede formularse así: hay que estar dispuesto a enfrentarse a un mundo en el que la ciencia sea eso que uno produce, conocimientos falsos sobre el mundo, ya que la ciencia es lo que hacemos nosotros cuando investigamos.

La segunda consecuencia es de carácter extrínseco. Es de carácter moral: como la moral es el conjunto de directrices que un grupo social desarrolla y comunica con la intención de salvaguardar los intereses del colectivo, y que orientan, juzgan y validan las acciones ostensibles de los individuos, la comunidad científica y la sociedad en general terminarán tarde o temprano juzgando el trabajo de cada quien y apartando de lo que se considera científico a quien falte al valor más esencial de esta actividad: la honestidad.

La conclusión necesaria es esta: si lo que se persigue es aprender a investigar, el uso de herramientas de inteligencia artificial generativa está contraindicado. Cada una de las acciones que pueden ejecutarse con su auxilio —buscar, sintetizar, calcular, redactar— son acciones que el sujeto en formación debe conocer de primera mano, aprenderlas y comprenderlas.

Y solo poniéndolas en práctica puede desarrollarlas y asimilarlas de tal modo que, cuando la IA produzca lo que se conoce como alucinaciones, o cuando el contexto no sea suficiente para orientar su procesamiento, el investigador ya formado disponga de la formación necesaria para discriminar, corregir y orientar los resultados que el artefacto le entrega.

Sin formación, sin práctica, el investigador en formación no puede evaluar lo que la IA produce. Y un investigador que no puede evaluar sus fuentes, sus procesos y sus resultados, no es un investigador: es un usuario.

Comentarios De Facebook

Check Also

El antillanismo de Gregorio Luperón

Las historias de los héroes nacionales en las luchas independentistas contra el dominio español en …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

litteranova.com