El lado más complejo de la IA podría elegir tu canción favorita en Spotify

TECNOLOGÍA Agencia de Noticias del Interior Agencia de Noticias del Interior

Si bien la inteligencia artificial tiene la capacidad de seguir indicaciones específicas para tener como resultado una respuesta deseada, un conjunto de investigadores de Spotify desarrollaron un nuevo modelo de software que usa una forma avanzada de este tipo de herramientas, que está basada en la identificación de causas de eventos pasados para usarlas como insumo para “predecir” el futuro.

 
Aún cuando esta propuesta pueda parecer sacada de una novela de ciencia ficción, lo cierto es que se trata de un modelo matemático en el que se establecen dos escenarios: uno real y otro ficticio. En uno, la inteligencia artificial puede identificar las “causas” que llevan al desarrollo de ciertos “efectos”, mientras que en el otro, la variación de, al menos, una de las causantes puede llevar a resultados ficticios posibles, por lo que se “predice” un futuro que no se ha desarrollado y que tampoco existe.

Según el documento de la investigación en la que participaron Athanasios Vlontzos, Ciarán Gilligan-Lee (Spotify) y Bernhard Kainz (Universidad de Erlangen-Núremberg), esta tecnología podría mejorar la toma de decisiones de forma automática en una gran variedad de campos como las finanzas, medicina, además de aplicaciones como Spotify.

Por ejemplo, esto podría predecir en qué momentos es mejor mostrar ciertas canciones e indicar cuándo es preferible que un artistas lance un nuevo álbum para maximizar su audiencia desde el primer día de lanzamiento.

Aún cuando el modelo matemático que generó este sistema de aprendizaje automático está disponible bajo licencia de investigación, lo cierto es que Spotify aún no implementa este tipo de tecnología en sus sistemas, indicó Gilligan-Lee, pero no se descarta una posible incorporación en la aplicación en el futuro.

En general, la idea de producir este tipo de modelos estadísticos y matemáticos para predecir escenarios posibles ante un hipotético cambio de variables de la realidad no se ha establecido para satisfacer una necesidad en particular. En el documento de la investigación, publicada en la revista Nature, asegura que se puede extender el mismo principio a otros ámbitos.

Con los datos que se pueden extraer de estos modelos, llamados “contrafactuales”, especialistas como Romila Pradhan, científica de datos de la Universidad de Purdue en Indiana (Estados Unidos), indican que es posible obtener explicaciones a algunos hechos y al mismo tiempo también puede determinar qué se podría modificar de la realidad para obtener el resultado deseado, como la obtención de un crédito o de un trabajo.

Esta sería la forma ideal que Sam Altman considera para el uso de la tecnología artificial como la que desarrolló OpenAI con ChatGPT, una herramienta que asista a la humanidad a modo de copiloto cada vez que se le requiera y no que desarrolle iniciativa propia para activarse cuando “considere” necesario.

“Estos modelos esperan a que una persona les ofrezca una indicación, una tarea que realizar (...) es una herramienta que está bajo el control de los humanos (...)”, afirmó Altman en una entrevista reciente.

Altman también consideró que este tipo de tecnologías, que actualmente se están desarrollando a gran velocidad, no han llegado a situarse en escenarios peligrosos para la humanidad y que, por lo tanto, son sistemas que se pueden mejorar que no tener que llegar a instancias aún más preocupantes.

“Seguro que haremos correcciones al mismo tiempo que ocurren estos hechos negativos. Ahora que los riesgos son bajos, estamos aprendiendo lo más que podemos y estableciendo una constante retroalimentación para mejorar el sistema”, dijo el CEO de OpenAI.

FUENTE: INFOBAE.COM

Últimas noticias
Te puede interesar
Lo más visto