Inteligencia Articial y desarrollo de Armas: Anthropic limita este uso para Claude.

La startup de inteligencia artificial Anthropic actualizó su política de uso de Claude, su chatbot, para reforzar las restricciones frente a posibles usos dañinos.

Según informa Emma Roth en The Verge (15 de agosto de 2025), la compañía ahora prohíbe de manera explícita utilizar su tecnología para desarrollar armas biológicas, químicas, nucleares, radiológicas o explosivos de alto poder. Antes, la política solo mencionaba “armas” de forma general.

El cambio se enmarca en la introducción de mayores protecciones de seguridad, como el nivel AI Safety Level 3 implementado con el modelo Claude Opus 4, diseñado para dificultar intentos de jailbreak y evitar su uso en la creación de armas CBRN.

La nueva política también incorpora un apartado contra el uso de Claude para comprometer sistemas informáticos, prohibiendo actividades como descubrir vulnerabilidades, crear malware o lanzar ataques de denegación de servicio.

En contraste, Anthropic relaja su enfoque en contenidos políticos: en lugar de vetar toda creación relacionada con campañas, ahora solo restringe los usos que puedan resultar “engañosos, disruptivos para procesos democráticos, o que impliquen segmentación de votantes y campañas”.

Con estas medidas, la compañía busca equilibrar seguridad, libertad de uso y responsabilidad en un momento en que las capacidades de la IA —incluyendo funciones agentivas como Claude Code o Computer Use— presentan tanto oportunidades como riesgos de abuso.

Nos preguntamos

  • ¿ las restricciones de Anthropic son suficientes frente a los riesgos actuales de la IA?
  • ¿Dónde debería trazarse el límite entre la seguridad y la libertad de uso de estas herramientas?

Deja un comentario