La demanda de Amazon contra Perplexity no es una disputa técnica menor entre dos gigantes de Silicon Valley. Es el primer movimiento visible de una guerra por el control del futuro digital que definirá nuestras libertades en la próxima década. Y estamos permitiendo que se escriba sin participación, sin debate público, sin regulación.
Cuando Amazon alega que Perplexity comete «fraude informático», está empleando un lenguaje legal calculado para hacer parecer un acto de defensa corporativa lo que es fundamentalmente un acto de consolidación de poder. Pero los detalles técnicos ocultan la verdadera naturaleza del conflicto: se está jugando el derecho de los usuarios a elegir las herramientas que median su relación con el comercio digital.
Lo que los términos y condiciones revelan: una arquitectura legal de control
Amazon no inventó la restricción contra agentes de IA. Estaba ahí todo el tiempo, enterrada en sus «Términos y Condiciones de Uso», un documento de cientos de párrafos que casi nadie lee completamente.
El idioma es técnico, pero el propósito es absoluto. Amazon define a un «Agente» como «cualquier software o servicio que toma acciones autónomas o semiautónomas en nombre de, o bajo la instrucción de, cualquier persona o entidad.» Y luego establece una exigencia inquietante: «Ningún Agente puede acceder, usar o interactuar con los Servicios de Amazon a menos que se identifique a sí mismo en todo momento y opere en estricta conformidad con los requisitos establecidos.»
¿Suena técnico? Lo es. ¿Pero qué significa en realidad? Significa que Amazon se ha arrogado el derecho de decidir quién puede automatizar acciones en su plataforma y bajo qué condiciones. Y más importante aún, significa que Amazon puede cambiar esas condiciones unilateralmente, en cualquier momento, sin tu consentimiento.
El documento continúa con disposiciones que revelan la verdadera intención. Los agentes deben «identificar claramente» su naturaleza automatizada en todas las solicitudes HTTP. No pueden «ocultar o disfrazar» que son máquinas. No pueden «completar o eludir CAPTCHAs». Amazon carece de medidas alternativas para contravenir sus propios bloqueos de acceso.
Todas estas restricciones son unilaterales. Vos aceptaste leerlas cuando creaste tu cuenta en Amazon. Probablemente ni siquiera sabías que existían. Y Amazon se reserva el derecho, explícitamente declarado, de «limitar, incluyendo mediante medidas técnicas, si y cómo cualquier Agente accede, usa e interactúa con los Servicios de Amazon.» En palabras simples: Amazon puede bloquear cualquier agente que quieras usar, en cualquier momento, sin justificación, solo porque lo decide.
¿Y por qué importa esto? Porque estos términos, aparentemente técnicos, establecen un principio legal fundamental: las corporaciones tienen derecho a decidir qué herramientas puedes usar, incluso si actúan exclusivamente en tu beneficio. Las plataformas no son espacios públicos. Son propiedades privadas donde las reglas las escriben quiénes controlan los servidores.
Amazon no está sola. Si observás los términos de otras plataformas, vas a encontrar restricciones similares. TripAdvisor, a través de su plataforma The Fork para restaurantes, explícitamente bloquea «todos los bots identificados como ‘bots maliciosos’ por defecto.» Booking.com tiene términos prohibiendo «data mining, robots, o herramientas similares de recopilación y extracción de datos.»
Pero aquí está lo interesante: estas mismas plataformas están desarrollando sus propios agentes de IA. Booking.com lanzó su «AI Trip Planner» que actúa automáticamente en nombre de los usuarios, navegando, comparando, recomendando hoteles. Amazon está desarrollando «Rufus», un asistente de compras que hace exactamente lo que Perplexity intenta hacer.
La contradicción es evidente: no podés usar un agente de terceros para comparar precios en Amazon, pero Amazon sí puede usar su propio agente para influir en tus decisiones de compra. No podés automatizar la búsqueda de restaurantes en The Fork, pero The Fork sí puede usar bots internos para moderar contenido, bloquear scraping competidor, y recomendar opciones.
Esto no es regulación de seguridad. Es exclusión competitiva. Es decir: «Las herramientas de automatización son peligrosas cuando las usan nuestros competidores, pero son innovación cuando las usamos nosotros.»
Amazon ya está desarrollando Rufus, su propio asistente de compras impulsado por IA. Google tiene Gemini. Meta integra IA en cada aspecto de sus servicios. Alibaba construyó su ecosistema cerrado de agentes. Ahora, cuando una startup se atreve a construir un agente que funciona de forma abierta e interoperable—es decir, que permite a los usuarios elegir—enfrenta litigios multimillonarios en tribunales norteamericanos.
El patrón es inequívoco. No es defensa. Es consolidación territorial. Cada plataforma está corriendo para asegurar que los agentes de IA del futuro sean exclusivamente suyos, que no exista competencia, que los usuarios no tengan alternativas. Porque quien controle el agente que media la interacción de un usuario con una plataforma controla esa relación, y más importante aún, los datos que genera.
Aravind Srinivas, CEO de Perplexity, lo expresó con claridad: «No creo que sea centrado en el cliente obligar a las personas a usar solo su asistente, que puede que ni siquiera sea el mejor asistente de compras.» Es un argumento que resuena con cualquier consumidor. Pero choca directamente con la realidad económica de las plataformas: su modelo de negocio se basa en el control total de la experiencia del usuario y, crucialmente, en la captura de los datos que esa experiencia genera.
Cuando Amazon demanda a Perplexity, lo que realmente está diciendo es: «Si querés que tus usuarios usen agentes de IA para interactuar con nuestras plataformas, esos agentes deben ser nuestros agentes. Porque si los usuarios pueden elegir, Amazon deja de controlar cómo tus clientes nos encuentran, cómo comparan nuestros precios, qué publicidad les mostramos.»
Sabemos que estamos en territorio inexplorado. No existen marcos legales claros que definan qué puede hacer un agente de IA, cuáles son sus derechos, quién es responsable cuando algo falla. Este vacío regulatorio no es accidental. Es estratégico, y las corporaciones lo están llenando a través de litigios ofensivos y términos de servicio unilaterales.
Las preguntas sin respuesta son múltiples y urgentes. ¿Tiene un agente de IA que actúa en tu nombre los mismos derechos de acceso que un usuario humano? ¿Pueden las plataformas discriminar arbitrariamente entre tráfico humano y automatizado cuando este último beneficia directamente al usuario individual? ¿Quién es responsable si un agente comete un error: el usuario final, el desarrollador del agente, o la plataforma que permitió el acceso? ¿Pueden los términos de servicio unilaterales, documentos que casi nadie lee y se modifican constantemente, restringir legítimamente el derecho de los usuarios a utilizar herramientas de terceros que mejoran su experiencia?
En todo el mundo existe un vacío regulatorio masivo. Mientras tanto, las grandes corporaciones están escribiendo las reglas del juego en tribunales estadounidenses, determinando para el mundo qué está permitido y qué no. Sin participación regulatoria. Sin nuestras voces.
Proyectemos esto hacia 2028. Cada plataforma importante ha cerrado deliberadamente sus puertas a agentes de terceros. Amazon solo funciona con Rufus. Booking solo acepta su propio asistente.
Los consumidores necesitarán múltiples asistentes diferentes. Cada uno aprendiendo preferencias de forma aislada. Cada uno operando bajo reglas distintas que nadie comprende completamente. Cada uno recolectando datos sin coordinación, sin que exista visibilidad real sobre qué saben, qué comparten, con quién lo venden.
La promesa democrática de los agentes de IA—que podrían empoderar a usuarios individuales, pequeños emprendedores, consumidores vulnerables—se invierte completamente. Se convierte en otra herramienta de control corporativo, en fragmentación forzada, en usuarios confinados a ecosistemas que nunca eligieron.
No es especulación. Es el patrón que hemos visto repetirse a lo largo de la historia de internet. Con los navegadores web en los años noventa. Con las redes sociales a partir de 2005. Con la computación en la nube en la última década. El ciclo es predecible: primero viene la innovación abierta y competitiva, luego la consolidación acelerada, finalmente los oligopolios que controlan el acceso a recursos cada vez más esenciales.
Los agentes de IA no son solo para comprar zapatillas en internet. Son para buscar empleo sin dejar rastros digitales permanentes en plataformas de reclutamiento. Son para investigar temas sensibles, críticos, delicados—salud mental, cuestiones legales, orientación sexual, creencias políticas—con privacidad real, sin que tus búsquedas se conviertan en datos perfilables para corporaciones.
Son para que pequeños emprendedores compitan sin que las grandes plataformas los asfixien con restricciones arbitrarias. Son para gestionar finanzas personales sin que intermediarios extraigan valor de tu información. Son para acceder a servicios públicos sin depender de intermediarios privados con fines de lucro. Son para que la automatización beneficie al ciudadano, no solo a las corporaciones.
Un agente imparcial podría ayudarte a comparar precios reales sin que una plataforma dominante te muestre exclusivamente lo que decide que debes ver. Podría gestionar datos de salud sin que corporaciones farmacéuticas los moneticen para estudios de marketing. Podría navegar regulaciones gubernamentales sin que tengas que pagar a intermediarios privados. Podría ser herramienta de empoderamiento. Pero solo si le permitimos existir libremente.
Cuando Amazon demanda a Perplexity, no está protegiéndote de agentes maliciosos. Está protegiéndose a sí misma del riesgo existencial que representa la competencia. Está asegurando que la próxima década de innovación digital ocurra exclusivamente dentro de los límites que ella define, bajo los términos que ella establece, con los beneficios que ella captura.
Lo que llama la atención de este conflicto es que ni siquiera existen estructuras legales claras de responsabilidad. Si un agente de IA comete un error comprando un producto incorrecto, ¿quién es responsable? ¿El usuario que autorizó al agente? ¿El desarrollador que creó el agente? ¿La plataforma que permitió el acceso? La ley no lo dice. Los términos de servicio lo dejan ambiguo intencionalmente.
Esta ambigüedad es poderosa para las corporaciones grandes. Les permite actuar defensivamente cuando les conviene, y argumentar algo completamente distinto cuando les conviene diferentes cosas. Les permite litigar en tribunales norteamericanos como víctimas de un “fraude técnico”, mientras que en sus oficinas ejecutivas celebran haber bloqueado exitosamente a un competidor.
Para los desarrolladores independientes, especialmente en regiones donde los recursos legales son limitados, esta ambigüedad puede ser paralizante. ¿Invertir en innovación en agentes de IA cuando plataformas dominantes pueden demandarte sin advertencia previa? ¿Crear herramientas que mejoren la experiencia del usuario cuando las grandes plataformas pueden cerrar puertas arbitrariamente?
Reguladores, legisladores, autoridades de defensa del consumidor: necesitan actuar con urgencia. No en dos años, cuando el estatus quo haya sido cementado. No cuando los grandes jugadores hayan consolidado sus posiciones. Ahora.
La solución requiere cinco componentes que deben implementarse simultáneamente:
Primero, interoperabilidad como derecho legal fundamental. Los consumidores deben tener derecho garantizado a usar herramientas de terceros para interactuar con plataformas comerciales, siempre que respeten seguridad, propiedad intelectual y protección contra fraude. No es un privilegio que las corporaciones pueden conceder o revocar. Es un derecho que debe estar protegido en ley.
Segundo, identificación transparente pero nunca razón para denegación. Los agentes de IA pueden y deben identificarse claramente como tales. Pero esa identificación nunca puede ser razón automática para bloquear acceso. Las limitaciones técnicas, si existen, deben ser proporcionales, objetivas y aplicadas equitativamente a usuarios humanos y agentes.
Tercero, cadenas de responsabilidad claramente definidas en ley. Desarrolladores de agentes son responsables del funcionamiento técnico de sus sistemas. Usuarios finales son responsables de las decisiones que toman a través de esos agentes. Plataformas son responsables de mantener servicios seguros y accesibles. Nadie se esconde detrás de ambigüedades contractuales.
Cuarto, prohibición explícita de cierre discriminatorio. Las plataformas no pueden cerrar acceso a agentes de terceros para favorecer sus propios productos. Punto. Eso no es medida de seguridad. Es una práctica anticompetitiva. Y debe estar explícitamente prohibida en ley de defensa de la competencia.
Quinto, revisión de términos y condiciones unilaterales. Los términos de servicio no pueden ser herramientas para evadir la regulación. Cuando un término de servicio entra en conflicto con derechos fundamentales del usuario (acceso equitativo, no discriminación, libertad de elección de herramientas), la ley debe prevalecer sobre el contrato. Las corporaciones pueden establecer políticas razonables, pero estas no pueden usarse para monopolizar segmentos del mercado digital.
Quiénes demuestren capacidad regulatoria en esta materia establecerán los estándares internacionales para agentes de IA libres e interoperables, protegiendo a usuarios, desarrolladores y pequeños emprendedores simultáneamente. O pueden quedarse observando pasivamente mientras Silicon Valley escribe las reglas del juego desde sus oficinas en California.
La pregunta que debemos hacer no es «¿Cuán seguros son los agentes de IA?» sino la pregunta política real: «¿Quién controla el futuro digital y en beneficio de quién?» Las respuestas que demos ahora determinarán las libertades que tendremos en una década. Determinarán si los emprendedores pequeños pueden competir o si estarán atrapados en ecosistemas que les dictan las reglas. Determinarán si los consumidores tienen voz en cómo interactúan con el comercio, o si simplemente siguen órdenes que corporaciones remotas definen unilateralmente.
El futuro de los agentes de IA se está escribiendo en este momento preciso.







