OpenAI y Microsoft acusan a DeepSeek de infracción de derechos de autor: entrenan su modelo con datos privilegiados

DeepSeek ha causado revuelo en la industria de la inteligencia artificial con su modelo R1, desarrollado a una fracción del costo de sus competidores. Sin embargo, OpenAI y Microsoft han acusado a la empresa de haber utilizado datos de manera indebida para entrenar su modelo, lo que podría constituir una violación de los términos de […]
PUBLICADO 02/04/2025

Escrito por

Gaming Continues

Hardware integrations, custom computers, designs and IT solutions.

Comparte esto:

Escrito por

Gaming Continues

Hardware integrations, custom computers, designs and IT solutions.

Comparte esto:

DeepSeek ha causado revuelo en la industria de la inteligencia artificial con su modelo R1, desarrollado a una fracción del costo de sus competidores. Sin embargo, OpenAI y Microsoft han acusado a la empresa de haber utilizado datos de manera indebida para entrenar su modelo, lo que podría constituir una violación de los términos de servicio de OpenAI.

Según OpenAI, existen pruebas de que DeepSeek empleó una técnica llamada «destilación», que consiste en usar los resultados de un modelo preexistente para entrenar un nuevo modelo, reduciendo costos y esfuerzo. Si se confirma que DeepSeek utilizó la destilación sobre los modelos de OpenAI, la supuesta eficiencia en costos de su modelo perdería credibilidad.

Si bien la destilación es una práctica común en la industria, OpenAI señala que DeepSeek la usó de manera que infringe sus términos de servicio. En particular, las políticas de OpenAI prohíben que sus APIs sean utilizadas para desarrollar modelos competidores.

Bloomberg informó que OpenAI y Microsoft detectaron y bloquearon cuentas que se cree pertenecían a DeepSeek, tras sospechas de que estaban siendo utilizadas para este proceso de destilación.

En respuesta a la situación, OpenAI declaró que empresas con sede en China y otros países han intentado replicar modelos de inteligencia artificial de Estados Unidos, lo que representa un desafío para la protección de la tecnología estadounidense. David Sacks, asesor de la Casa Blanca en criptomonedas e inteligencia artificial, también se pronunció sobre el caso, señalando que hay evidencia sustancial de que DeepSeek usó modelos de OpenAI como base para el suyo.

Este conflicto plantea interrogantes sobre la regulación y protección de modelos de IA, en un contexto donde la competencia por el liderazgo en inteligencia artificial es cada vez más intensa.

También te puede interesar…