contacto@servired.cl - +56 9 4216 8325

Siguenos:

OpenAI no quiere liberar su IA por sus implicaciones

OpenAI no quiere liberar su IA por sus implicaciones

Podría comenzar este artículo hablándote acerca de aquellas películas de ciencia ficciónque, poniéndose siempre en el peor de los escenarios, nos acribillan con batallas sangrientas que enfrentan a la humanidad, al borde de la extinción, con un ejército robótico. El asunto no tiene tintes tan dramáticos, al menos por el momento, pero resulta preocupante lo que una máquina puede hacer en nuestros días.

 

Redacción de artículos de chip y letra

 

Si no conoces a la empresa OpenAI, yo estaba en tu lugar hace unos instantes, debes saber que se trata de una organización sin ánimo de lucro dedicada a la investigación en materia de inteligencia artificial, para que ésta sea segura a la hora de ser aplicada en nuestra tecnología. El asunto es que, según la información que hemos podido leer en el medio de comunicación MIT Technology Reviewuno de los algoritmos de OpenAI ha conseguido escribir un artículo completo a partir de una simple, y aterradora, frase. ¿Cuáles serían las consecuencias de no poder distinguir la verdad de la mentira, incluso en medios de comunicación que puedan ser hackeados?

 

1.jpg

 

En concreto, a dicha inteligencia artificial se le ha proporcionado el comienzo de lo que podría ser un artículo. El inicio otorgado ya era prometedor: Rusia ha declarado la guerra a Estados Unidos después de que Donald Trump accidentalmente… A partir de aquí, puedes leer las frases escritas por la IA en el enlace que anteriormente mencionaba, el algoritmo consigue construir un relato tan veraz, que a muchísima gente la costaría discernir si lo que está leyendo no lo ha escrito una persona.

 

Lo que comenzó como un algoritmo que enseñaba a la inteligencia artificial a construir un lenguaje de forma realista, ha acabado preocupando a los responsables del proyecto. Jack Clark, miembro de OpenAI, ha declarado:

 

«Empezamos a probarlo y pronto descubrimos que es posible generar, de manera sencilla, contenido malicioso. Es muy claro que si esta tecnología madura, yo lo daría uno o dos años más, podría ser utilizada para desinformar. Estamos intentando ir por delante de este asunto.»