Why it matters
The AI content
accountability gap
AI generates billions of content pieces daily. Regulators, clients, and the public are demanding to know what was written by humans and what by machines. From August 2026, the EU mandates it by law.
The problem
Three forces converging
at the same moment.
This isn't a future problem. Enforcement begins August 2026 — and the tools most organisations rely on today cover only one of the four layers required.
Regulatory
EU AI Act Article 50 — August 2026
Every AI-generated output must carry machine-readable marking. Fines up to €15M or 3% of global turnover. No exceptions for agencies, platforms, or autonomous agents.
Market
Clients demand verifiable proof
Banking, pharma, insurance, and legal clients are already including AI content compliance clauses in contracts. A promise isn't enough — they need cryptographic, auditor-ready proof.
Technical
AI agents publish at inhuman scale
Autonomous agents generate and publish content 24/7 with no human in the loop. Existing compliance tools require human signers. They were not designed for this.
The gap
Single-layer solutions
don't qualify.
The EU AI Office's Code of Practice explicitly requires a multi-layer technical approach. Here is where current tools stand:
L1
Invisible Watermark
Google SynthID covers this layer. Adobe CAI partially covers it. Both stop here. Neither provides the remaining three layers the Code of Practice requires.
L2
C2PA Credential
Adobe CAI covers this for human-created content. Does not support autonomous agents — no X.509 certificate, no compatible creation app, no metadata-preserving channel.
L3
Blockchain Log
No major tool provides this. Centralised logs require trust in the operator. Regulators need independent, immutable, third-party verification.
L4
Public Detection API
No major tool provides a fully open, no-account verification endpoint for regulators. Most require accounts, API keys, or operator cooperation — defeating zero-trust verification.
The solution
AI Act 50: the complete 4-layer stack.
AI Act 50 is the only platform that connects all four layers — built on top of C2PA, not against it. One API call certifies every AI output, human or agent-generated, with full regulatory coverage.
1
One API call
Send your AI output to POST /v1/certify. Returns certificate ID, C2PA credential, blockchain hash, and public verify URL in under 2 seconds.
2
Four layers applied
Invisible watermark, C2PA 2.1 credential, blockchain BASE anchor, and public detection API — all applied simultaneously, all independently verifiable.
3
Zero trust required
Any regulator, auditor, or client can verify any certificate via GET /v1/verify — no API key, no account, no trust in Vottun. The blockchain is the authority.
Timeline
Key dates
Feb 2025
EU AI Act Code of Practice published by EU AI Office.
Aug 2025
General provisions of EU AI Act enter force.
Aug 2026
Article 50 enforcement begins. Machine-readable marking mandatory.
2027
Full AI Act enforcement for high-risk AI systems.
Next step
Don't wait for the
enforcement deadline.
The window to position as compliant before August 2026 is closing. Free on testnet. 20-minute integration.
Por qué importa
La brecha de
responsabilidad del contenido IA
La IA genera miles de millones de piezas de contenido al día. Reguladores, clientes y ciudadanos exigen saber qué fue escrito por humanos y qué por máquinas. Desde agosto de 2026, la UE lo exige por ley.
El problema
Tres fuerzas convergiendo
al mismo tiempo.
Este no es un problema del futuro. La aplicación comienza en agosto de 2026 — y las herramientas en las que confían la mayoría de organizaciones hoy solo cubren una de las cuatro capas requeridas.
Regulatorio
EU AI Act Art. 50 — Agosto 2026
Todo contenido generado por IA debe llevar marcado legible por máquina. Multas de hasta €15M o el 3% de la facturación global. Sin excepciones para agencias, plataformas ni agentes autónomos.
Mercado
Los clientes exigen prueba verificable
Banca, farma, seguros y legal ya incluyen cláusulas de cumplimiento de contenido IA en los contratos. Una promesa no es suficiente — necesitan prueba criptográfica lista para auditores.
Técnico
Los agentes publican a escala inhumana
Los agentes autónomos generan y publican contenido 24/7 sin intervención humana. Las herramientas de cumplimiento existentes requieren firmantes humanos. No fueron diseñadas para esto.
La brecha
Las soluciones monocapa
no califican.
El Código de Práctica de la Oficina de IA de la UE exige explícitamente un enfoque técnico multicapa. Así es donde se encuentran las herramientas actuales:
L1
Marca de agua invisible
Google SynthID cubre esta capa. Adobe CAI la cubre parcialmente. Ambas se detienen aquí. Ninguna proporciona las tres capas restantes que exige el Código de Práctica.
L2
Credencial C2PA
Adobe CAI cubre esto para contenido creado por humanos. No es compatible con agentes autónomos — sin certificado X.509, sin app de creación compatible, sin canal que preserve metadatos.
L3
Registro en blockchain
Ninguna herramienta principal proporciona esto. Los registros centralizados requieren confianza en el operador. Los reguladores necesitan verificación independiente, inmutable y de terceros.
L4
API de Detección Pública
Ninguna herramienta principal ofrece un endpoint de verificación completamente abierto y sin cuenta para reguladores. La mayoría requieren cuentas o claves API, lo que elimina la verificación zero-trust.
La solución
AI Act 50: el Stack completo de 4 capas.
AI Act 50 es la única plataforma que conecta las cuatro capas — construida sobre C2PA, no contra él. Una llamada API certifica cada contenido de IA, generado por humanos o agentes, con cobertura regulatoria completa.
1
Una sola llamada API
Envíe su contenido IA a POST /v1/certify. Devuelve ID de certificado, credencial C2PA, hash blockchain y URL pública de verificación en menos de 2 segundos.
2
Cuatro capas aplicadas
Marca de agua invisible, credencial C2PA 2.1, anclaje en blockchain BASE y API de detección pública — todas aplicadas simultáneamente, todas verificables de forma independiente.
3
Zero trust requerido
Cualquier regulador, auditor o cliente puede verificar cualquier certificado vía GET /v1/verify — sin clave API, sin cuenta, sin confiar en Vottun. La blockchain es la autoridad.
Cronología
Fechas clave
Feb 2025
Código de Práctica del EU AI Act publicado por la Oficina de IA de la UE.
Ago 2025
Disposiciones generales del EU AI Act entran en vigor.
Ago 2026
Aplicación del Art. 50. Marcado legible por máquina obligatorio.
2027
Aplicación completa del EU AI Act para sistemas de IA de alto riesgo.
Siguiente paso
No espere al
plazo de aplicación.
La ventana para posicionarse como compliant antes de agosto de 2026 se está cerrando. Gratis en testnet. Integración en 20 minutos.