Spanish

¿Qué significa ser inteligente?

¿Qué significa ser inteligente?

Chirag Shah, University of Washington
Translated by Roberto Gonzalez-Ibanez, Departamento de Ingeniería Informática, Universidad de Santiago de Chile

En el verano de 2004, hice una pasantía en el Honda Research Institute (HRI) en Mountain View, California. Allí trabajé en un robot llamado ASIMO. Aquí puedes ver una foto mía dándole la mano a ASIMO en nuestro laboratorio. ASIMO era un robot humanoide, diseñado para parecerse y actuar como un ser humano. Por supuesto, como puedes ver, ¡se parece más a un astronauta que a un humano típico! Pero ten en cuenta que esto fue en 2004, y el campo de la robótica no estaba tan avanzado como lo está hoy. En ese entonces, esto era lo más avanzado.

ASIMO podía caminar, dar la mano, subir escaleras e incluso jugar al fútbol. Las versiones posteriores de ASIMO se veían y actuaban de manera más sofisticada que lo que ves aquí en la foto conmigo. Esas versiones podían correr, saltar y bailar. Podían conversar en lenguaje natural y seguir órdenes. Incluso el expresidente de EE. UU., Barack Obama, jugó un poco de fútbol con ASIMO durante su visita a Japón.

Honda tenía la visión de hacer a ASIMO tan capaz y económico que cada hogar pudiera tener uno, similar a la visión de Bill Gates de un PC por hogar. Pero estábamos muy lejos de eso. La IA detrás del robot era torpe, poco fiable y ciertamente no estaba lista para una prueba de campo.

—¿Qué nos hace inteligentes, conscientes y humanos?—

Las cosas han cambiado significativamente desde aquellos días. Aunque ASIMO sigue siendo un proyecto de laboratorio, la IA que opera detrás ha avanzado a pasos agigantados. En 2007, Steve Jobs nos convenció de comprar una pequeña computadora para nuestro bolsillo, lo que él llamó iPhone. Unos años más tarde, eso se redujo a algo que se puede llevar en la muñeca. A principios de la década de 2010, comenzamos a tener sistemas que podían hacer traducción y reconocimiento facial mejor que los humanos. Más tarde en esa década, nuevos tipos de algoritmos de aprendizaje automático dieron lugar a modelos que podían procesar enormes cantidades de datos y extraer conocimiento de ellos para poder responder todo tipo de preguntas. A principios de la década de 2020, los programas de IA generativa se volvieron lo suficientemente avanzados como para crear texto, voz, imágenes y videos que son difíciles de distinguir de los creados por humanos.

Vemos un patrón aquí que solo se está amplificando con el tiempo: sistemas computacionales que están comenzando a realizar muchas tareas intelectuales y cognitivas que tradicionalmente han sido hechas por humanos, a menudo superándolos.

Hay una escena en “Yo, Robot” donde el protagonista (interpretado por Will Smith), quien es escéptico de que los robots tengan alguna capacidad real de pensar o sentir, desafía a un robot diciendo que los robots no son nada como los humanos.

Smith: ¿Puede un robot componer una sinfonía? ¿Puede un robot convertir un lienzo en una hermosa obra maestra?

Robot: ¿Y tú puedes?

¡Eso es casi como una respuesta de “oh vaya, no puede” por parte del robot! Ciertamente, nuestro protagonista no tiene una buena respuesta. Si crear una sinfonía o pintar un cuadro es lo que nos define, entonces esas cosas ya no son exclusivas de nosotros.”

El año 2011, un robot llamado I-, diseñado por la científica japonesa Dra. Sachiko Kodama, compuso la primera sinfonía escrita por un robot en el mundo. En 2018, un programa de IA creó una obra de arte titulada ‘Edmond de Belamy’, que se vendió por $432,500 en una subasta de Christie’s en Nueva York.

Mientras tanto, la mayoría de nosotros no hemos mejorado en componer música ni en crear arte que pudiera venderse por el precio de una casa.

Entonces, ¿qué significa? ¿Hemos dejado de evolucionar mientras una entidad artificial está logrando un progreso increíble en ser cada vez más parecida a los humanos?

Creo que esto nos lleva a reflexionar sobre lo que realmente pensamos acerca de ser humanos, tener conciencia o poseer inteligencia. Sí, las entidades artificiales se están volviendo más inteligentes, pero no lo llamaría el mismo tipo de inteligencia que nos define a nosotros, los humanos. De manera similar, están aprendiendo a actuar y pensar (y tal vez un día a sentir) como nosotros, pero son formas diferentes de actuar, pensar y sentir que las humanas. Es como si estuviéramos inventando una especie alienígena aquí mismo en el planeta Tierra. Pueden parecerse y actuar como nosotros, pero seguirán siendo alienígenas. No son nosotros. No me malinterpretes, no estoy tratando de ser discriminatorio ni de oponerme a esta especie recién descubierta (¿desarrollada?). Solo no quiero que perdamos nuestra identidad porque estamos demasiado ocupados adorándolos o temiéndolos.

No hay ninguna razón técnica para que un robot se parezca a los humanos. Los mecanismos bípedos no son de alguna manera mejores que los sistemas cuadrúpedos. Pero estamos obsesionados con crear humanoides, robots que se parezcan a nosotros, no porque nuestro diseño físico sea perfecto, sino porque nos cuesta ver algo diferente; una especie diferente que domine el planeta nos asusta. Así que seguimos moldeando estos sistemas artificiales a nuestra forma y gusto, pero seamos claros: no son nosotros. Son muy útiles y los queremos/necesitamos, pero eso no es razón para darles más crédito del que merecen.

Puede que no todos tengamos la capacidad de componer una sinfonía o crear una obra maestra de arte, pero esos no deberían ser requisitos para ser humano. Ciertamente, no deberían ser los únicos factores diferenciadores respecto a la IA. Sigamos descubriendo qué significa ser humano mientras seguimos mejorando esta nueva especie que estamos creando.

En un nivel más profundo, los relatos de dominación robótica reflejan nuestras contradicciones inherentes. Queremos crear cosas asombrosas, pero tememos perder el control de nuestras creaciones. Las historias donde los dispositivos superan a las personas nos permiten imaginar nuestras peores pesadillas tecnológicas. Exponen los límites humanos, lo cual lastima un poco nuestro ego. ¡Pero ver a nuestras herramientas volverse contra nosotros también es extrañamente emocionante! Así que las sagas de robots asesinos básicamente muestran nuestros sentimientos complejos sobre los robots.

Por supuesto, películas como The Terminator no tratan realmente sobre el futuro. Son alegorías que dramatizan nuestras esperanzas y temores actuales sobre la nueva tecnología. Al proyectar nuestra ansiedad sobre la IA en un futuro imaginario, las películas nos permiten debatir preguntas difíciles. ¿Cuáles son los principios éticos detrás de las armas inteligentes? ¿Los robots inteligentes merecen derechos? Las rebeliones de robots ficticios nos hacen reflexionar sobre los dilemas reales del progreso tecnológico.

En el fondo, las historias de alzamientos de robots nos revelan a nosotros mismos. Nuestra necesidad de inventar, nuestro deseo de control, nuestro temor a la obsolescencia, todo está reflejado en nuestras fantasías con androides. En lugar de predecir el futuro, quizás estos cuentos de advertencia nos enseñen sobre el presente, sobre moderar la ambición con ética. Así se busca forjar un camino sabio hacia un mundo con IA.

Entonces, ¿cuál es el veredicto? Nuestra obsesión con la IA rebelde es complicada. Tal vez muestra que tenemos miedo de ser reemplazados. Pero también significa que tenemos esperanza en el potencial de la tecnología. Aplaudimos a Sarah Connor, pero en cierto modo admiramos la determinación del Terminator. Y esa respuesta compleja y contradictoria hace que las películas de rebelión de robots sean infinitamente atractivas. Nuestras fantasías sobre máquinas seguirán llegando mientras soñemos con nuevas fronteras en la tecnología.

Cite this article in APA as: Shah, C. Obsesión con los Robots Asesinos como Autorreflexión. (2024, July 28). Information Matters, Vol. 4, Issue 7. https://informationmatters.org/2024/07/obsesion-con-los-robots-asesinos-como-autorreflexion/

Author

  • Chirag Shah

    Dr. Chirag Shah is a Professor in Information School, an Adjunct Professor in Paul G. Allen School of Computer Science & Engineering, and an Adjunct Professor in Human Centered Design & Engineering (HCDE) at University of Washington (UW). He is the Founding Director of InfoSeeking Lab and the Founding Co-Director of RAISE, a Center for Responsible AI. He is also the Founding Editor-in-Chief of Information Matters. His research revolves around intelligent systems. On one hand, he is trying to make search and recommendation systems smart, proactive, and integrated. On the other hand, he is investigating how such systems can be made fair, transparent, and ethical. The former area is Search/Recommendation and the latter falls under Responsible AI. They both create interesting synergy, resulting in Human-Centered ML/AI.

    View all posts

Chirag Shah

Dr. Chirag Shah is a Professor in Information School, an Adjunct Professor in Paul G. Allen School of Computer Science & Engineering, and an Adjunct Professor in Human Centered Design & Engineering (HCDE) at University of Washington (UW). He is the Founding Director of InfoSeeking Lab and the Founding Co-Director of RAISE, a Center for Responsible AI. He is also the Founding Editor-in-Chief of Information Matters. His research revolves around intelligent systems. On one hand, he is trying to make search and recommendation systems smart, proactive, and integrated. On the other hand, he is investigating how such systems can be made fair, transparent, and ethical. The former area is Search/Recommendation and the latter falls under Responsible AI. They both create interesting synergy, resulting in Human-Centered ML/AI.

Leave a Reply