miércoles, septiembre 18

Más impacto en la vida diaria, con nuevos riesgos: 5 cambios que provocará la inteligencia artificial en 2024

0
136

Durante el año pasado la explosión relacionada a la IA generativa de la mano de GPT y OpenAI hizo que estos algoritmos se masificaran de una manera que nunca hubiéramos imaginado. Pero, ¿qué se verá durante el 2024?

El 2023 ya puede catalogarse como uno de los momentos más importantes en la historia de la inteligencia artificial. Y los laureles por esto se los lleva, sin dudas, OpenAI y la creación de su producto estrella que hoy está en boca de todos y que revolucionó el mercado: GPT. Está claro que no fueron los únicos que marcaron hitos, pero todos, de una manera u otra, siguen el camino que está surcando Sam Altman, creador y CEO de la compañía.

Pero si bien el 2023 fue el año de la masificación de la inteligencia artificial generativa, expertos aseguran que en el 2024 eso se verá todavía más y, a medida que avancen los meses, observaremos cómo estos algoritmos y modelos de lenguaje se van abriendo lugar en nuestra vida cotidiana.

Chatbots a medida

La mayor parte de las compañías del mercado de la tecnología invirtieron fuertemente en 2023 en lo que tiene que ver con GenAI. Esas mismas empresas tienen la presión de mostrar resultados.

En los últimos meses del 2023 vimos cómo el camino que estaban tomando algunas de ellas, como OpenAI y Google, era el de darle la posibilidad a los usuarios de que personalicen sus propios chatbots para darles exactamente lo que necesitaban. ¿Querían uno que actúe como un profesor de matemática? ¿Uno que les diera consejos sobre cómo mejorar su página web? ¿Uno que les enseñara a programar? Podrían crearlos. Esto significa desarrollar bots a medida sin la necesidad de saber programar.

La posibilidad no solo hará que muchos usuarios se metan a crear sus propios chatbots, sino también que puedan ponerlos disponibles en la tienda de aplicaciones que ya anunció OpenAI. Como pasó hace años con la llegada de la App Store de Apple, esto permitirá que la tecnología avance todavía más y alcance a personas que hasta ahora no utilizaban estos algoritmos porque consideraban que no eran para ellos.

Robots multitaskers

Hasta ahora los robots que vimos en los últimos años son desarrollados con la capacidad de hacer una serie muy reducida de cosas. O pueden cocinar, o buscar personas en un derrumbe, sembrar campos, manipular determinados materiales de construcción o laboratorio, resolver tareas peligrosas para los humanos.

El problema es que si a cada uno de esos robots los sacamos de su área de trabajo, no servirían para nada. Fueron creados para resolver una tarea.

Ameca es uno de los robots humanoides más importantes del mundo. (Foto: Reuters).
Ameca es uno de los robots humanoides más importantes del mundo. (Foto: Reuters).Por: REUTERS

Pero expertos aseguran que lo que empezará a pasar es que estos fabricantes de robots tomarán un enfoque más a lo GPT, que puede trabajar con audio, imágenes y texto: crear robots que puedan realizar varias tareas.

Un ejemplo claro es el del Robocat, desarrollado por DeepMind, de Google, que aprende, solo, a usar diferentes brazos robóticos que sirven para distintas tareas en vez de perfeccionar solo el uso de uno, que es lo que solemos ver actualmente en el mercado.

Desinformación generativa

No todo son buenas noticias para el mundo de la inteligencia artificial. La facilidad que da esta tecnología tanto para generar texto como imágenes ficticias pero que parecen reales impulsará mucho la desinformación.

En parte, ya se está viviendo, pero se espera que se expanda todavía mucho más. En Eslovaquia, por ejemplo, se usaron deepfakes, videos falsos que parecen auténticos, del líder del partido liberal haciendo chistes o anunciando medidas que eran falsas.

Hace algunos años usar esta tecnología quedaba relegada a solo unas pocas personas que tenían los recursos y el conocimiento para acceder a ellas. Hoy cualquiera puede generar texto, videos o audios falsos en cuestión de minutos para impersonar a terceros.

Ética y seguridad

Expertos aseguran que es necesario que tanto ONGs como gobiernos empiecen a delinear leyes y guías para poder controlar el avance de estos algoritmos. Algunos de los problemas que ya se pueden observar son, justamente, las fake news generativas, la explotación en el uso de contenidos con copyright para entrenar a estos algoritmos, por la falta de privacidad en los datos de los usuarios, y un largo etcétera.

De hecho, ya está sucediendo. La Unión Europea se convirtió a fines de 2023 en la primera región del mundo que tendrá una ley integral para regular la inteligencia artificial. La intención de la UE es dotar de un marco legislativo que pueda no solo impulsar la competitividad e innovación sino también, y sobre todo, proteger a las personas.

Inteligencia artificial en video

La primera ola de la inteligencia artificial generativa llegó de la mano del texto y las imágenes. En cuestión de meses, nos acostumbramos a chatear con algoritmos como si se trataran de personas. Pero hay un campo dentro de la IA generativa que todavía no fue tan explorado: el del video.

Will Douglas Heaven, del MIT Technology Review, considera que la segunda ola de las IAs vendrá de la mano de la innovación en video. Las pruebas de lo que dice están ahí: cada vez más estudios, como Disney y Paramount, están explorando cómo pueden usar IAs a través de todo su proceso de producción y posproducción. Una tecnología que ya están utilizando actualmente, por ejemplo, es para hacer lip-sync de actores. Lo hacen para que el movimiento de sus labios coincida cuando doblan las películas a otros idiomas.

No se queda ahí. También está cambiando la manera en la que se incluyen y utilizan los efectos especiales. Sin ir más lejos, en la última película que salió de Indiana Jones, presentada en 2023, pudimos ver a un Harrison Ford muchísimo más joven de lo que en realidad es. Eso se logró a través del uso de deepfakes.