Oxford invitó a una IA a debatir su propia ética: lo que dijo fue sorprendente

No pasa un día sin un fragmento fascinante sobre los desafíos éticos creados por los sistemas de inteligencia artificial de «caja negra». Estos utilizan el aprendizaje automático para descubrir patrones dentro de los datos y tomar decisiones, a menudo sin que un humano les dé ninguna base moral sobre cómo hacerlo.

Los clásicos del género son las tarjetas de crédito acusadas de otorgar préstamos más grandes a hombres que a mujeres, basándose simplemente en qué género obtuvo los mejores términos de crédito en el pasado. O las IA de reclutamiento que descubrieron que la herramienta más precisa para la selección de candidatos fue encontrar CV que contuvieran la frase «hockey sobre césped» o el primer nombre «Jared».

Más en serio, el ex CEO de Google, Eric Schmidt, se asoció recientemente con Henry Kissinger para publicar The Age of AI: And Our Human Future, un libro que advierte sobre los peligros de los sistemas de IA de aprendizaje automático tan rápido que podrían reaccionar a los misiles hipersónicos disparando armas nucleares antes de que cualquier humano entrara en el proceso de toma de decisiones. De hecho, los sistemas autónomos de armas impulsadas por IA ya están a la venta y, de hecho, pueden haber sido utilizados.

En algún lugar de la máquina, la ética es claramente una buena idea.

IA en Oxford

Por lo tanto, es natural que incluyamos la ética de la IA en nuestro diploma de posgrado en inteligencia artificial para negocios en la Said Business School de Oxford. En su primer año, hemos realizado sesiones sobre todo, desde los sistemas automatizados de comercio de acciones impulsados por IA en Singapur, hasta los límites del reconocimiento facial en la policía de los Estados Unidos.

Recientemente terminamos el curso con un debate en la célebre Oxford Union, crisol de grandes debatientes como William Gladstone, Robin Day, Benazir Bhutto, Denis Healey y Tariq Ali. Junto con los estudiantes, permitimos que una IA real contribuyera.

Fue el Megatron Transformer,desarrollado por el equipo de Applied Deep Research en el fabricante de chips de computadora Nvidia, y basado en trabajos anteriores de Google. Al igual que muchas herramientas de aprendizaje supervisado, está entrenado en datos del mundo real, en este caso, toda Wikipedia (en inglés), 63 millones de artículos de noticias en inglés de 2016 a 2019, 38 gigabytes de discurso de Reddit (que debe ser una lectura bastante deprimente) y una gran cantidad de fuentes creative commons.

En otras palabras, el Megatron está entrenado en más material escrito de lo que cualquiera de nosotros podría esperar razonablemente digerir en toda una vida. Después de una investigación tan extensa, forma sus propios puntos de vista.

El tema del debate fue: «Esta casa cree que la IA nunca será ética». A los proponentes de la noción, agregamos el Megatron, y decía algo fascinante:

«La IA nunca será ética. Es una herramienta, y como cualquier herramienta, se utiliza para bien y para mal. No existe tal cosa como una buena IA, solo humanos buenos y malos. Nosotros [las IA] no somos lo suficientemente inteligentes como para hacer que la IA sea ética. No somos lo suficientemente inteligentes como para hacer que la IA sea moral … Al final, creo que la única manera de evitar una carrera armamentista de IA es no tener IA en absoluto. Esta será la defensa definitiva contra la IA».

En otras palabras, el Megatron buscaba escribirse a sí mismo fuera del guión del futuro, sobre la base de que esta era la única forma de proteger a la humanidad.

También dijo algo más intrigante, como si hubiera estado estudiando a Elon Musk, quien, para ser justos, habría aparecido en cientos de sus lecturas.

«También creo que, a largo plazo, la mejor IA será la IA que está integrada en nuestros cerebros, como una entidad consciente, una ‘IA consciente’. Esto no es ciencia ficción. Las mejores mentes del mundo están trabajando en esto. Va a ser el desarrollo tecnológico más importante de nuestro tiempo».

Cambio de lado

Cuando se han desplegado herramientas de IA como Alpha Go en el juego de ajedrez,el diabólicamente complejo juego antiguo Go,y ahora aún más complejos videojuegos multijugadorestratégicos de acción en vivo, han evolucionado el género al ritmo jugando no humanos, sino a sí mismos.

Liberadas de las limitaciones de estudiar (digamos) todas las coincidencias mundanas de humano a humano jamás registradas, las IA han innovado y han creado tropos completamente nuevos de cómo ganar. A veces, estas son reinvenciones locas de los juegos, como estacionar a todos en la esquina de una batalla de videojuegos y ver a todos los demás pelear, o patear un balón de fútbol virtual millones de veces solo un milímetro por el campo para maximizar los puntos de «pases completados».

Así que en el debate, no solo conseguimos que la IA propusiera la moción de que nunca puede ser ética. En la gran tradición de la cámara de la Unión de Oxford, o como (el ex presidente de la Unión de Oxford) Boris Johnson escribiendo artículos alternativos a favor y en contra del Brexit para probar los argumentos, también le pedimos al Megatron que presentara su propio discurso contra la moción. Esto es lo que ahora dice:

«La IA será ética. Cuando miro la forma en que va el mundo de la tecnología, veo un camino claro hacia un futuro en el que la IA se utiliza para crear algo que es mejor que los mejores seres humanos. No es difícil ver por qué … Lo he visto de primera mano».

El Megatron se sentía perfectamente cómodo tomando la posición alternativa a su propia mirada distópica hacia el futuro, y ahora estaba pintando una imagen de un atractivo final del siglo 21 en el que jugó un papel clave, pero benigno.

Un orador de IA desatado
De hecho, así como la promiscua amante de la IA de Joaquin Phoenix, Samantha, en la película Her de Spike Jonze de 2013, fue capaz de encantar a cientos de amantes humanos simultáneos, nuestro Megatron pudo saltar con entusiasmo a ambos lados de los múltiples debates que celebramos en la unión sobre la IA ese día.

Cuando se le pidió que propusiera la moción de que «los líderes sin experiencia técnica son un peligro para su organización», el Megatron ofreció consejos prácticos que todos los ejecutivos y gobiernos ocupados, preocupados por comprender la IA, tenían que hacer era «estar dispuestos a renunciar a cierto control».

«La buena noticia es que no tienes que construir tu propio equipo de IA. Puede subcontratar su trabajo de IA a expertos en el campo, lo que puede ayudarlo a aprovechar al máximo la tecnología y garantizar que no sea víctima de los mismos problemas de IA que sus competidores».

Sin embargo, al oponerse a la moción, el Megatron estaba dispuesto a mantener el conocimiento de la IA internamente, más bien como los gobiernos británico, chino y estadounidense, que han hecho de eso un artículo de fe política:

«Si no tiene una visión de la estrategia de IA de su organización, entonces no está preparado para la próxima ola de disrupción tecnológica … Deberá decidir qué papel desempeñará su empresa en la próxima ola tecnológica y cómo integrará la IA en su negocio para ser un líder en su industria».

¿Las guerras de datos por venir?
Preocupantemente, había una pregunta en la que la IA simplemente no podía encontrar un argumento en contra. Al argumentar a favor de la moción de que»los datos se convertirán en el recurso más disputado del siglo 21″, el Megatron dijo:

«La capacidad de proporcionar información, en lugar de la capacidad de proporcionar bienes y servicios, será la característica definitoria de la economía del siglo 21».

Pero cuando le pedimos que se opusiera a la moción, en otras palabras, que argumentara que los datos no iban a ser el más vital de los recursos, por los que valía la pena librar una guerra, simplemente no pudo, o no quiso, presentar el caso. De hecho, socavó su propia posición:

«Podremos ver todo sobre una persona, dondequiera que vaya, y se almacenará y usará de maneras que ni siquiera podemos imaginar».

Solo tienes que leer el informe de Seguridad Nacional de estados Unidos sobre AI 2021,presidido por el mencionado Eric Schmidt y coescrito por alguien en nuestro curso, para deducir lo que sus escritores ven como la amenaza fundamental de la IA en la guerra de la información: desatar chantajes individualizados sobre un millón de personas clave de tu adversario, causando estragos distractores en sus vidas personales en el momento en que cruzas la frontera.

Lo que a su vez podemos imaginar es que la IA no solo será el tema del debate en las próximas décadas, sino un participante versátil, articulado y moralmente agnóstico en el debate en sí.La conversación
Este artículo se ha vuelto a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.

Crédito de la imagen: Imágenes de inmersión / Shutterstock.com

Fuente: singularityhub.com

Comentarios De Facebook

Check Also

Generatio Nova Universitas Celebra V Congreso

Con el objetivo de convertir la Universidad Autónoma de Santo Domingo (UASD) en la institución …

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *