Por: Bernardo Sabisky
El futuro de la inteligencia artificial es prometedor, pero también está lleno de riesgos. La competencia feroz entre empresas como OpenAI y DeepSeek, sumada a la facilidad con que los sistemas de IA pueden ser mal utilizados, pone en jaque la seguridad global. La carrera por el liderazgo tecnológico no debe olvidarse de los peligros que conlleva
La inteligencia artificial (IA) es uno de los campos más fascinantes y prometedores de la tecnología, pero también uno de los más riesgosos. En un reciente informe de seguridad internacional, Yoshua Bengio, considerado uno de los pioneros de la IA moderna, lanzó una alerta sobre el creciente peligro que representan los avances de sistemas como DeepSeek, una startup china que está desafiando el dominio de empresas estadounidenses como OpenAI. Bengio, quien co-ganó el prestigioso premio Turing en 2018, advirtió que esta competencia podría generar un escenario más peligroso de lo que imaginamos.
La carrera por la supremacía de la IA
Bengio explicó que la creciente competencia en el ámbito de la inteligencia artificial podría poner en peligro la seguridad de estos sistemas. Según su análisis, la presión por ser los primeros en lanzar productos innovadores puede llevar a las empresas a priorizar la velocidad de desarrollo sobre la seguridad de sus tecnologías. «Cuando dos entidades compiten al mismo nivel, la necesidad de acelerar puede hacer que no se preste tanta atención a los riesgos», explicó Bengio en una reciente entrevista.
Esta preocupación no es menor. DeepSeek, la empresa china que se está posicionando como competidora directa de OpenAI, podría generar un escenario donde la seguridad se vea sacrificada en aras de un avance más rápido. Y si bien los avances en IA pueden ser beneficiosos en sectores como la medicina o la educación, la misma tecnología tiene el potencial de ser mal utilizada.
La amenaza de los avances maliciosos
El informe, elaborado por 96 expertos internacionales, no se limita a teorizar sobre posibles riesgos. En su documento, señalan que los sistemas de IA se están haciendo cada vez más accesibles para los no expertos, lo que aumenta el riesgo de que estas herramientas sean utilizadas con fines maliciosos. Por ejemplo, ahora es posible que con solo un teléfono móvil, una persona sin experiencia técnica pueda ser guiada en la creación de armas biológicas o cibernéticas, algo que antes era impensable.
Estos sistemas tienen la capacidad de generar instrucciones detalladas sobre cómo fabricar sustancias peligrosas o llevar a cabo ataques cibernéticos, lo cual representa una amenaza directa para la seguridad mundial. Aunque no se ha demostrado que un principiante pueda realizar estos ataques de manera efectiva, el simple hecho de que esta posibilidad exista ya es motivo de preocupación.
Deepfakes y otros peligros invisibles
Uno de los riesgos más inmediatos que plantean los avances en inteligencia artificial son los deepfakes. Esta tecnología, que permite crear imágenes y sonidos falsificados de personas de manera sorprendentemente realista, está siendo utilizada para extorsionar a empresas, suplantar identidades y cometer fraudes. El informe destaca que, si bien es difícil medir con precisión el aumento de este tipo de delitos, la tendencia es alarmante.
Los deepfakes han sido utilizados en campañas de desinformación, chantajes, e incluso en la creación de contenido pornográfico no consentido, lo que plantea serias preguntas sobre la ética y la regulación de la IA. Si bien es cierto que la tecnología también tiene aplicaciones positivas, como en el cine o la educación, la capacidad de manipular la realidad de manera tan convincente es un arma de doble filo.
Un futuro incierto
Si bien muchos de los expertos consultados coinciden en que la inteligencia artificial tiene el potencial de transformar positivamente a la humanidad, los riesgos asociados a su mal uso son cada vez más evidentes. El informe deja claro que, si bien los sistemas actuales de IA aún no pueden ejecutar ataques de manera completamente autónoma, las herramientas para que los actores malintencionados lo hagan están al alcance de muchas personas.
El informe subraya que el avance rápido de la IA, sin una regulación adecuada y sin una toma de conciencia de los riesgos, podría tener consecuencias impredecibles. Bengio, quien presidió este informe, ya está trabajando en una nueva edición que incluirá datos más recientes, como el lanzamiento de un nuevo modelo de razonamiento de OpenAI que podría abrir nuevas puertas a capacidades aún más complejas.
Estamos en un punto de inflexión. La inteligencia artificial tiene un potencial tremendo, pero como cualquier herramienta poderosa, también puede ser peligrosa. Los expertos como Yoshua Bengio y el equipo detrás del informe de seguridad sobre IA están dejando claro que debemos ser más conscientes de los riesgos, antes de que sea demasiado tarde. ¿Podremos equilibrar la innovación con la seguridad? Eso depende de nosotros.
El futuro de la inteligencia artificial es prometedor, pero también está lleno de riesgos. La competencia feroz entre empresas como OpenAI y DeepSeek, sumada a la facilidad con que los sistemas de IA pueden ser mal utilizados, pone en jaque la seguridad global. La carrera por el liderazgo tecnológico no debe olvidarse de los peligros que conlleva.