12.3 C
Rawson
lunes, 17 junio, 2024

La pregunta que todos se hacen sobre el asombroso nuevo ChatGPT: ¿estamos a tiempo para regular?

Cada vez que se habla acerca de los riesgos en torno a la inteligencia artificial se suele hacer referencia a lo que pasó, en los últimos años, con las redes sociales. Hace ya más de una década, cuando estas plataformas fueron lanzadas y empezaban a ser usadas por la gente, nadie pensó que deberían ser reguladas. Parecían un juego, un mero pasatiempos.

Hoy, pasado el tiempo, es amplio el consenso sobre la idea de que habría que haberles puesto reglas en su momento. El impacto que están teniendo -tanto el positivo como el negativo- es contundente.

Obviamente, lo más preocupante son los efectos negativos, que van desde la adicción que generan esta plataformas , sobre todo en adolescentes -están diseñadas para captar el mayor tiempo de atención de la audiencia-, hasta las apuestas online -que están destrozando hoy a muchas familias-, o el peligro para la democracia, por la facilidad con la que se pueden producir campañas de fake news y desinformación.

La inteligencia artificial hoy está, tecnológicamente, dando sus primeros pasos y, mirando lo que pasó con las redes sociales, se despiertan todas las fantasías.

La principal está relacionada a qué podría ocurrir cuando -conectadas en red- adquieran una inteligencia superior al humano promedio, en el sentido amplio de la palabra inteligencia.

Sam Altman, CEO de OpenAI. Foto: AFPSam Altman, CEO de OpenAI. Foto: AFPEsta superinteligencia, que en la jerga se conoce como IA General, no solo sería mucho más rápida que las personas. Además, lo más preocupante, podría ganar autonomía. No necesitarían una instrucción, guía o supervisión, podrían leer un problema, interpretarlo y crear una estrategia de solución por su cuenta. Los principales jugadores de la industria -OpenAI, Google, Microsoft, entre otros- están cerca de lograrlo.

Julián Peller, computador científico de la UBA y experto en IA, explica que, si a una IA General “uno le pide que prepare un café, preverá todos los pasos y los sub-objetivos que tienen que ir cumpliendo. Por ejemplo, ir a comprarlo si no hay o, incluso, la necesidad de ahorrar para pagar la luz, para así garantizar de que el café se haga”.

Ahora, ¿qué pasaría si uno le indica que haga todo lo posible para curar el cáncer? Todavía estamos en el terreno de las hipótesis, claro, pero entre los investigadores hay temor de que, si no se le especifica bien todas las tareas, en su afán por curar el cáncer, pueda llegar a iniciar acciones que terminen matando a la humanidad.

La nueva versión estará disponible en pocos días para todos los usuarios. (Foto: AP )La nueva versión estará disponible en pocos días para todos los usuarios. (Foto: AP )Por otra parte, ¿qué pasaría si, aún con las especificaciones correctas, esta tecnología cayera en las manos incorrectas? En líderes que estén en contra de la libertad y los derechos de las personas, por ejemplo. Podría, por ejemplo, asesorar a una persona para que sintetice un virus maligno. O alterar los registros de los hospitales.

Y más preocupaciones aún. Esta tecnología puede fácilmente ser embebida dentro de dispositivos o robots. ¿Circularán, por el mundo, robots que tengan sus propias intenciones?

Parecen todas teorías conspirativas, pero esto es lo que discute hoy la comunidad científica y, especialmente, aquellos especialistas que buscan afanosamente que estados, empresas y sociedad civil avancen con regulaciones de la inteligencia artificial.

ChatGPT 4-o, el chatbot presentado ayer, todavía está lejos de las proezas de la IA General, pero dio un paso enorme en expresividad y comunicación con los humanos. Las luces amarillas son cada vez más naranjas y, por qué no, también rojas.

ÚLTIMAS PUBLICACIONES
Relacionadas