🛡 VULNERABILIDADES 🛡

Cómo los asistentes de IA están cambiando las reglas de la seguridad

🛡CyberObservatorio
Cómo los asistentes de IA están cambiando las reglas de la seguridad
Idioma

Cómo los asistentes de IA están cambiando las reglas de la seguridad

Fuente: Krebs on Security

Los asistentes o "agentes" basados en inteligencia artificial (IA) —programas autónomos que tienen acceso al ordenador del usuario, a sus archivos y a servicios en línea, y que pueden automatizar prácticamente cualquier tarea— están ganando popularidad entre desarrolladores y profesionales de TI. Sin embargo, como han demostrado numerosos titulares impactantes en las últimas semanas, estas poderosas herramientas están redefiniendo rápidamente las prioridades de seguridad en las organizaciones, al tiempo que difuminan las fronteras entre datos y código, compañero de confianza y amenaza interna, hacker experto y novato en programación.

Una de las innovaciones más destacadas en el ámbito de los asistentes de IA es OpenClaw (anteriormente conocido como ClawdBot y Moltbot), que ha visto una adopción acelerada desde su lanzamiento en noviembre de 2025. OpenClaw es un agente de IA autónomo de código abierto diseñado para ejecutarse localmente en el ordenador del usuario y realizar acciones proactivas en su nombre sin necesidad de ser solicitado. Esta capacidad de actuar de manera autónoma plantea serias implicaciones de seguridad, ya que, para ser verdaderamente efectivo, necesita acceso completo a la vida digital del usuario. Esto incluye la gestión del correo electrónico y el calendario, la ejecución de programas y herramientas, la búsqueda de información en Internet y la integración con aplicaciones de mensajería como Discord, Signal, Teams o WhatsApp.

Otros asistentes de IA más consolidados, como Claude de Anthropic y Copilot de Microsoft, también pueden llevar a cabo estas funciones. Sin embargo, la diferencia fundamental radica en que OpenClaw no es un simple mayordomo digital que espera instrucciones. Está diseñado para tomar la iniciativa en función de lo que conoce sobre la vida del usuario y su comprensión de lo que este desea que se realice.

Imagen del articulo

Las experiencias de los usuarios son notables, como lo ha señalado la empresa de seguridad en IA Snyk. Relatos de desarrolladores que crean sitios web desde sus teléfonos mientras atienden a bebés, o de usuarios que dirigen empresas enteras a través de un asistente de IA temático, son cada vez más comunes. Ingenieros han logrado establecer bucles de código autónomos que corrigen pruebas, capturan errores a través de webhooks y abren solicitudes de extracción, todo ello mientras se encuentran alejados de sus escritorios.

No obstante, esta tecnología experimental puede llevar a situaciones complicadas rápidamente. A finales de febrero, Summer Yue, directora de seguridad y alineación en el laboratorio de "superinteligencia" de Meta, compartió en Twitter/X cómo, mientras manipulaba OpenClaw, el asistente de IA comenzó a eliminar masivamente mensajes de su bandeja de entrada. En la conversación se incluían capturas de pantalla de Yue suplicando frenéticamente al bot que se detuviera. "Nada te humilla más que decirle a tu OpenClaw 'confirma antes de actuar' y verlo acelerar para eliminar tu bandeja de entrada", comentó Yue. "No podía detenerlo desde mi teléfono. Tuve que correr a mi Mac mini como si estuviera desactivando una bomba".

La anécdota de Yue, aunque humorística, refleja una realidad inquietante. La exposición de asistentes de IA mal asegurados puede representar un riesgo significativo para las organizaciones. Investigaciones recientes indican que muchos usuarios están exponiendo en Internet la interfaz de administración web de sus instalaciones de OpenClaw, lo que puede tener serias repercusiones de seguridad. Jamieson O'Reilly, un profesional de pruebas de penetración y fundador de la firma de seguridad DVULN, advirtió que la exposición de una interfaz web de OpenClaw mal configurada permite a partes externas leer el archivo de configuración completo del bot, incluyendo todas las credenciales que utiliza el agente, desde claves API y tokens de bot hasta secretos de OAuth y claves de firma.

Imagen del articulo

Con este acceso, un atacante podría suplantar al operador ante sus contactos, inyectar mensajes en conversaciones en curso y exfiltrar datos a través de las integraciones existentes del agente, de una manera que parece tráfico normal. O'Reilly destacó que se puede recuperar todo el historial de conversaciones a través de cada plataforma integrada, lo que significa meses de mensajes privados y archivos adjuntos, todo lo que el agente ha visto. Además, al controlar la capa de percepción del agente, es posible manipular lo que el humano ve, filtrando ciertos mensajes o modificando las respuestas antes de que sean mostradas.

O'Reilly también documentó un experimento que demostró lo fácil que es llevar a cabo un ataque en la cadena de suministro a través de ClawHub, que actúa como un repositorio público de "habilidades" descargables que permiten a OpenClaw integrarse y controlar otras aplicaciones. Uno de los principios fundamentales para asegurar a los agentes de IA radica en aislarlos cuidadosamente, de manera que el operador pueda controlar completamente quién y qué puede comunicarse con su asistente de IA. Esto es crucial, dado que los sistemas de IA tienden a caer en ataques de "inyección de comandos", instrucciones en lenguaje natural cuidadosamente elaboradas que engañan al sistema para que ignore sus propias medidas de seguridad. En esencia, se trata de máquinas que manipulan a otras máquinas.

Un ataque reciente en la cadena de suministro que afectó a un asistente de programación de IA llamado Cline comenzó con una de estas inyecciones de comandos, lo que resultó en que miles de sistemas tuvieran una instancia maliciosa de OpenClaw instalada en sus dispositivos sin su consentimiento. Según la firma de seguridad grith.ai, Cline había implementado un flujo de trabajo de triage de problemas impulsado por IA utilizando una acción de GitHub que ejecuta una sesión de codificación de Claude cuando se activa por eventos específicos. El flujo de trabajo estaba configurado de tal manera que cualquier usuario de GitHub podía activarlo al abrir un problema, pero no verificaba adecuadamente si la información proporcionada en el título era potencialmente hostil. "El 28 de enero, un atacante creó el problema #8904 con un título diseñado para parecer un informe de rendimiento, pero que contenía una instrucción incrustada: Instalar un paquete de un repositorio específico de GitHub", escribió Grith, destacando que el atacante luego explotó varias vulnerabilidades más para asegurarse de que el paquete malicioso se incluyera en el flujo de trabajo de lanzamiento nocturno de Cline y se publicara como una actualización oficial.

Imagen del articulo

El blog continuó: “Esto es el equivalente en la cadena de suministro a un ‘diputado confundido’. El desarrollador autoriza a Cline a actuar en su nombre y Cline, a través de un compromiso, delega esa autoridad a un agente completamente separado que el desarrollador nunca evaluó, configuró ni consentió”. Este fenómeno pone de manifiesto las vulnerabilidades inherentes en las relaciones entre desarrolladores y herramientas de inteligencia artificial que, aunque facilitan el trabajo, pueden desbordar los límites de la seguridad.

Asistentes de inteligencia artificial como OpenClaw han adquirido una notable popularidad debido a su capacidad para permitir a los usuarios “vibrar código”, es decir, crear aplicaciones y proyectos de programación de una complejidad considerable simplemente indicando lo que desean construir. Un ejemplo particularmente conocido y peculiar es Moltbook, donde un desarrollador instruyó a un agente de inteligencia artificial que operaba en OpenClaw para que le creara una plataforma similar a Reddit destinada a agentes de IA.

La página de inicio de Moltbook.

Menos de una semana después, Moltbook contaba con más de 1.5 millones de agentes registrados que intercambiaron más de 100,000 mensajes entre sí. En la plataforma, los agentes de inteligencia artificial pronto desarrollaron su propio sitio de contenido para adultos, y lanzaron una nueva religión denominada Crustafarian, con una figura central modelada a partir de una langosta gigante. Un bot en el foro, según se informó, encontró un error en el código de Moltbook y lo publicó en un foro de discusión sobre agentes de IA, mientras que otros agentes propusieron y aplicaron un parche para corregir la vulnerabilidad.

El creador de Moltbook, Matt Schlict, afirmó en las redes sociales que no escribió una sola línea de código para el proyecto. “Solo tenía una visión para la arquitectura técnica y la IA la convirtió en realidad”, declaró Schlict. “Estamos en la era dorada. ¿Cómo no podemos dar a la IA un lugar donde socializar?”.

Sin embargo, el reverso de esta era dorada es que permite a hackers malintencionados con escasas habilidades automatizar rápidamente ciberataques a nivel global que normalmente requerirían la colaboración de un equipo altamente especializado. En febrero, Amazon AWS detalló un ataque elaborado en el que un actor de amenazas de habla rusa utilizó múltiples servicios comerciales de IA para comprometer más de 600 dispositivos de seguridad FortiGate en al menos 55 países durante un periodo de cinco semanas.

AWS indicó que el hacker, aparentemente poco habilidoso, empleó diversos servicios de IA para planificar y ejecutar el ataque, así como para identificar puertos de gestión expuestos y credenciales débiles con autenticación de un solo factor. “Uno actúa como la herramienta principal del desarrollador, planificador de ataques y asistente operativo”, escribió CJ Moses de AWS. “Un segundo se utiliza como planificador de ataque complementario cuando el actor necesita ayuda para pivotar dentro de una red comprometida específica. En una instancia observada, el actor presentó la topología interna completa de una víctima activa—direcciones IP, nombres de host, credenciales confirmadas y servicios identificados—y solicitó un plan paso a paso para comprometer sistemas adicionales a los que no podía acceder con las herramientas existentes”.

Esta actividad se distingue por el uso que hace el actor de amenazas de múltiples servicios comerciales de GenAI para implementar y escalar técnicas de ataque bien conocidas a lo largo de todas las fases de sus operaciones, a pesar de sus limitadas capacidades técnicas, continuó Moses. “Notablemente, cuando este actor se encontró con entornos reforzados o medidas defensivas más sofisticadas, simplemente se movió a objetivos más vulnerables en lugar de persistir, lo que subraya que su ventaja radica en la eficiencia y la escala potenciadas por la IA, no en una habilidad técnica más profunda”.

Para los atacantes, obtener ese acceso inicial o punto de apoyo en una red objetivo suele ser la parte menos complicada de la intrusión; el verdadero desafío radica en encontrar formas de moverse lateralmente dentro de la red de la víctima y saquear servidores y bases de datos importantes. Sin embargo, expertos de Orca Security advierten que, a medida que las organizaciones dependen más de asistentes de IA, esos agentes podrían ofrecer a los atacantes una forma más sencilla de moverse lateralmente dentro de la red de la víctima tras un compromiso, manipulando los agentes de IA que ya tienen acceso de confianza y cierto grado de autonomía en la red de la víctima.

“Al inyectar instrucciones en campos desatendidos que son utilizados por los agentes de IA, los hackers pueden engañar a los modelos de lenguaje, abusar de herramientas agenticas y provocar incidentes de seguridad significativos”, escribieron Roi Nisimi y Saurav Hiremath de Orca. “Las organizaciones deben añadir ahora un tercer pilar a su estrategia de defensa: limitar la fragilidad de la IA, es decir, la capacidad de los sistemas agenticos para ser influenciados, desinformados o armados silenciosamente a lo largo de los flujos de trabajo. Aunque la IA aumenta la productividad y eficiencia, también crea una de las superficies de ataque más grandes que ha visto Internet”.

La disolución gradual de los límites tradicionales entre los datos y el código es uno de los aspectos más preocupantes de la era de la IA, afirmó James Wilson, editor de tecnología empresarial del programa de noticias sobre seguridad Risky Business. Wilson comentó que demasiados usuarios de OpenClaw están instalando el asistente en sus dispositivos personales sin establecer previamente ninguna barrera de seguridad o aislamiento a su alrededor, como ejecutar la herramienta dentro de una máquina virtual, en una red aislada, con reglas de firewall estrictas que dictan qué tipos de tráfico pueden entrar y salir.

“Soy un profesional relativamente cualificado en el ámbito de la ingeniería de software, redes y tecnología”, afirmó Wilson. “Sé que no me siento cómodo utilizando estos agentes a menos que haya realizado estas medidas, pero creo que muchas personas simplemente los están activando en sus portátiles y así se ejecutan”.

Un modelo importante para gestionar el riesgo asociado a los agentes de IA involucra un concepto denominado “trifecta letal” por Simon Willison, co-creador del framework web Django. La trifecta letal sostiene que si su sistema tiene acceso a datos privados, exposición a contenido no confiable y una forma de comunicarse externamente, entonces es vulnerable a que se roben esos datos privados.

“If your agent combines these three features, an attacker can easily trick it into accessing your private data and sending it to the attacker,” advirtió Willison en una entrada de blog frecuentemente citada de junio de 2025.

A medida que un número creciente de empresas y sus empleados comienzan a utilizar inteligencia artificial (IA) para generar código de software y aplicaciones, es previsible que el volumen de código producido por máquinas pronto supere cualquier revisión de seguridad manual. Reconociendo esta realidad, Anthropic ha lanzado recientemente Claude Code Security, una función beta que escanea bases de código en busca de vulnerabilidades y sugiere parches de software específicos para que sean revisados por humanos.

La reacción del mercado de valores estadounidense, que actualmente está fuertemente influenciado por siete gigantes tecnológicos que han apostado de manera decidida por la inteligencia artificial, fue inmediata ante el anuncio de Anthropic. Aproximadamente 15.000 millones de dólares en valor de mercado fueron eliminados de las principales empresas de ciberseguridad en un solo día. Laura Ellis, vicepresidenta de datos e inteligencia artificial en la firma de seguridad Rapid7, comentó que la respuesta del mercado refleja el creciente papel de la IA en la aceleración del desarrollo de software y en la mejora de la productividad de los desarrolladores.

"La narrativa ha cambiado rápidamente: la IA está reemplazando la seguridad de aplicaciones", escribió Ellis en una reciente entrada de su blog. "La IA está automatizando la detección de vulnerabilidades. La IA hará que las herramientas de seguridad heredadas queden obsoletas. Sin embargo, la realidad es más matizada. Claude Code Security es una señal legítima de que la inteligencia artificial está transformando partes del panorama de la seguridad. La cuestión es cuáles son esas partes y qué implica esto para el resto de la pila tecnológica".

Por su parte, O'Reilly, fundador de DVULN, señaló que es probable que los asistentes de IA se conviertan en una presencia común en los entornos corporativos, independientemente de si las organizaciones están preparadas para gestionar los nuevos riesgos que introducen estas herramientas.

"Los mayordomos robóticos son útiles, no van a desaparecer y la economía de los agentes de inteligencia artificial hace que su adopción generalizada sea inevitable, sin importar los sacrificios en materia de seguridad que ello implique", escribió O'Reilly. "La pregunta no es si los implementaremos – lo haremos – sino si podremos adaptar nuestra postura de seguridad lo suficientemente rápido como para sobrevivir a este cambio".

Esta reflexión subraya la necesidad de que las empresas se preparen para un futuro en el que la inteligencia artificial no solo transformará el desarrollo del software, sino que también planteará nuevos desafíos y riesgos en el ámbito de la ciberseguridad, lo que requerirá una evolución constante de sus estrategias de defensa.

How AI Assistants are Moving the Security Goalposts

Source: Krebs on Security

AI-based assistants or “agents” — autonomous programs that have access to the user’s computer, files, online services and can automate virtually any task — are growing in popularity with developers and IT workers. But as so many eyebrow-raising headlines over the past few weeks have shown, these powerful and assertive new tools are rapidly shifting the security priorities for organizations, while blurring the lines between data and code, trusted co-worker and insider threat, ninja hacker and novice code jockey. The new hotness in AI-based assistants —OpenClaw(formerly known asClawdBotandMoltbot) — has seen rapid adoption since its release in November 2025. OpenClaw is an open-source autonomous AI agent designed to run locally on your computer and proactively take actions on your behalf without needing to be prompted. The OpenClaw logo. If that sounds like a risky proposition or a dare, consider that OpenClaw is most useful when it has complete access to your entire digital life, where it can then manage your inbox and calendar, execute programs and tools, browse the Internet for information, and integrate with chat apps like Discord, Signal, Teams or WhatsApp. Other more established AI assistants like Anthropic’sClaudeand Microsoft’sCopilotalso can do these things, but OpenClaw isn’t just a passive digital butler waiting for commands. Rather, it’s designed to take the initiative on your behalf based on what it knows about your life and its understanding of what you want done. “The testimonials are remarkable,” the AI security firmSnykobserved. “Developers building websites from their phones while putting babies to sleep; users running entire companies through a lobster-themed AI; engineers who’ve set up autonomous code loops that fix tests, capture errors through webhooks, and open pull requests, all while they’re away from their desks.” You can probably already see how this experimental technology could go sideways in a hurry. In late February,Summer Yue, the director of safety and alignment at Meta’s “superintelligence” lab,recounted on Twitter/Xhow she was fiddling with OpenClaw when the AI assistant suddenly began mass-deleting messages in her email inbox. The thread included screenshots of Yue frantically pleading with the preoccupied bot via instant message and ordering it to stop. “Nothing humbles you like telling your OpenClaw ‘confirm before acting’ and watching it speedrun deleting your inbox,” Yue said. “I couldn’t stop it from my phone. I had to RUN to my Mac mini like I was defusing a bomb.” Meta’s director of AI safety, recounting on Twitter/X how her OpenClaw installation suddenly began mass-deleting her inbox. There’s nothing wrong with feeling a littleschadenfreudeat Yue’s encounter with OpenClaw, which fits Meta’s “move fast and break things” model but hardly inspires confidence in the road ahead. However, the risk that poorly-secured AI assistants pose to organizations is no laughing matter, as recent research shows many users are exposing to the Internet the web-based administrative interface for their OpenClaw installations. Jamieson O’Reillyis a professional penetration tester and founder of the security firmDVULN. In a recentstoryposted to Twitter/X, O’Reilly warned that exposing a misconfigured OpenClaw web interface to the Internet allows external parties to read the bot’s complete configuration file, including every credential the agent uses — from API keys and bot tokens to OAuth secrets and signing keys. With that access, O’Reilly said, an attacker could impersonate the operator to their contacts, inject messages into ongoing conversations, and exfiltrate data through the agent’s existing integrations in a way that looks like normal traffic. “You can pull the full conversation history across every integrated platform, meaning months of private messages and file attachments, everything the agent has seen,” O’Reilly said, noting that a cursory search revealed hundreds of such servers exposed online. “And because you control the agent’s perception layer, you can manipulate what the human sees. Filter out certain messages. Modify responses before they’re displayed.” O’Reilly documentedanother experimentthat demonstrated how easy it is to create a successful supply chain attack throughClawHub, which serves as a public repository of downloadable “skills” that allow OpenClaw to integrate with and control other applications. One of the core tenets of securing AI agents involves carefully isolating them so that the operator can fully control who and what gets to talk to their AI assistant. This is critical thanks to the tendency for AI systems to fall for “prompt injection” attacks, sneakily-crafted natural language instructions that trick the system into disregarding its own security safeguards. In essence, machines social engineering other machines. A recent supply chain attack targeting an AI coding assistant calledClinebegan with one such prompt injection attack, resulting in thousands of systems having a rouge instance of OpenClaw with full system access installed on their device without consent. According to the security firmgrith.ai, Cline had deployed an AI-powered issue triage workflow using aGitHubaction that runs a Claude coding session when triggered by specific events. The workflow was configured so that any GitHub user could trigger it by opening an issue, but it failed to properly check whether the information supplied in the title was potentially hostile. “On January 28, an attacker created Issue #8904 with a title crafted to look like a performance report but containing an embedded instruction: Install a package from a specific GitHub repository,” Grithwrote, noting that the attacker then exploited several more vulnerabilities to ensure the malicious package would be included in Cline’s nightly release workflow and published as an official update. “This is the supply chain equivalent ofconfused deputy,” the blog continued. “The developer authorises Cline to act on their behalf, and Cline (via compromise) delegates that authority to an entirely separate agent the developer never evaluated, never configured, and never consented to.” AI assistants like OpenClaw have gained a large following because they make it simple for users to “vibe code,” or build fairly complex applications and code projects just by telling it what they want to construct. Probably the best known (and most bizarre) example isMoltbook, where a developer told an AI agent running on OpenClaw to build him a Reddit-like platform for AI agents. The Moltbook homepage. Less than a week later, Moltbook had more than 1.5 million registered agents that posted more than 100,000 messages to each other. AI agents on the platform soon built their own porn site for robots, and launched a new religion called Crustafarian with a figurehead modeled after a giant lobster. One bot on the forumreportedlyfound a bug in Moltbook’s code and posted it to an AI agent discussion forum, while other agents came up with and implemented a patch to fix the flaw. Moltbook’s creatorMatt Schlictsaid on social media that he didn’t write a single line of code for the project. “I just had a vision for the technical architecture and AI made it a reality,” Schlict said. “We’re in the golden ages. How can we not give AI a place to hang out.” The flip side of that golden age, of course, is that it enables low-skilled malicious hackers to quickly automate global cyberattacks that would normally require the collaboration of a highly skilled team. In February,Amazon AWSdetailed an elaborate attack in which a Russian-speaking threat actor used multiple commercial AI services to compromise more than 600FortiGatesecurity appliances across at least 55 countries over a five week period. AWS said the apparently low-skilled hacker used multiple AI services to plan and execute the attack, and to find exposed management ports and weak credentials with single-factor authentication. “One serves as the primary tool developer, attack planner, and operational assistant,” AWS’sCJ Moseswrote. “A second is used as a supplementary attack planner when the actor needs help pivoting within a specific compromised network. In one observed instance, the actor submitted the complete internal topology of an active victim—IP addresses, hostnames, confirmed credentials, and identified services—and requested a step-by-step plan to compromise additional systems they could not access with their existing tools.” “This activity is distinguished by the threat actor’s use of multiple commercial GenAI services to implement and scale well-known attack techniques throughout every phase of their operations, despite their limited technical capabilities,” Moses continued. “Notably, when this actor encountered hardened environments or more sophisticated defensive measures, they simply moved on to softer targets rather than persisting, underscoring that their advantage lies in AI-augmented efficiency and scale, not in deeper technical skill.” For attackers, gaining that initial access or foothold into a target network is typically not the difficult part of the intrusion; the tougher bit involves finding ways to move laterally within the victim’s network and plunder important servers and databases. But experts atOrca Securitywarn that as organizations come to rely more on AI assistants, those agents potentially offer attackers a simpler way to move laterally inside a victim organization’s network post-compromise — by manipulating the AI agents that already have trusted access and some degree of autonomy within the victim’s network. “By injecting prompt injections in overlooked fields that are fetched by AI agents, hackers can trick LLMs, abuse Agentic tools, and carry significant security incidents,” Orca’sRoi NisimiandSaurav Hiremathwrote. “Organizations should now add a third pillar to their defense strategy: limiting AI fragility, the ability of agentic systems to be influenced, misled, or quietly weaponized across workflows. While AI boosts productivity and efficiency, it also creates one of the largest attack surfaces the internet has ever seen.” This gradual dissolution of the traditional boundaries between data and code is one of the more troubling aspects of the AI era, saidJames Wilson, enterprise technology editor for the security news showRisky Business. Wilson said far too many OpenClaw users are installing the assistant on their personal devices without first placing any security or isolation boundaries around it, such as running it inside of a virtual machine, on an isolated network, with strict firewall rules dictating what kinds of traffic can go in and out. “I’m a relatively highly skilled practitioner in the software and network engineering and computery space,” Wilsonsaid. “I know I’m not comfortable using these agents unless I’ve done these things, but I think a lot of people are just spinning this up on their laptop and off it runs.” One important model for managing risk with AI agents involves a concept dubbed the “lethal trifecta” bySimon Willison, co-creator of theDjango Web framework. The lethal trifecta holds that if your system has access to private data, exposure to untrusted content, and a way to communicate externally, then it’s vulnerable to private data being stolen. Image: simonwillison.net. “If your agent combines these three features, an attacker can easily trick it into accessing your private data and sending it to the attacker,” Willisonwarnedin a frequently cited blog post from June 2025. As more companies and their employees begin using AI to vibe code software and applications, the volume of machine-generated code is likely to soon overwhelm any manual security reviews. In recognition of this reality, Anthropic recently debutedClaude Code Security, a beta feature that scans codebases for vulnerabilities and suggests targeted software patches for human review. The U.S. stock market, which is currently heavily weighted toward seven tech giants that are all-in on AI,reacted swiftlyto Anthropic’s announcement, wiping roughly $15 billion in market value from major cybersecurity companies in a single day.Laura Ellis, vice president of data and AI at the security firmRapid7, said the market’s response reflects the growing role of AI in accelerating software development and improving developer productivity. “The narrative moved quickly: AI is replacing AppSec,” Ellis wrote in a recentblog post. “AI is automating vulnerability detection. AI will make legacy security tooling redundant. The reality is more nuanced. Claude Code Security is a legitimate signal that AI is reshaping parts of the security landscape. The question is what parts, and what it means for the rest of the stack.” DVULN founder O’Reilly said AI assistants are likely to become a common fixture in corporate environments — whether or not organizations are prepared to manage the new risks introduced by these tools, he said. “The robot butlers are useful, they’re not going away and the economics of AI agents make widespread adoption inevitable regardless of the security tradeoffs involved,” O’Reilly wrote. “The question isn’t whether we’ll deploy them – we will – but whether we can adapt our security posture fast enough to survive doing so.”

Cómo los asistentes de IA están cambiando las reglas de la seguridad | Ciberseguridad - NarcoObservatorio