Claude AI añade creación y edición de archivos: riesgos de seguridad que preocupan

Claude AI ahora crea archivos: productividad con advertencias

Anthropic ha lanzado recientemente una nueva función en Claude AI que permite a sus usuarios crear y editar directamente documentos como hojas de cálculo (.xlsx), presentaciones de PowerPoint (.pptx), PDFs y otros archivos dentro del mismo asistente. Estas capacidades están disponibles en modo vista previa para suscripciones Max, Team y Enterprise, y llegarán pronto a usuarios Pro.

Qué permite esta nueva funcionalidad

La característica, llamada «Upgraded file creation and analysis», amplía considerablemente la capacidad del asistente. Ahora, Claude puede:

  • Crear desde cero archivos con fórmulas, análisis de datos, gráficos y múltiples hojas de cálculo.
  • Transformar un archivo PDF en una presentación de PowerPoint o convertir notas en documentos bien formateados.
  • Trabajar directamente en plantillas como presupuestos, análisis de ventas o informes con solo describir lo que se desea.

Para que esto funcione, Anthropic ha dotado a Claude con acceso a un entorno informático (sandbox) privado donde puede ejecutar código, analizar datos y generar archivos interactivos a partir de la conversación.

Riesgos de seguridad y advertencias oficiales

Junto al anuncio, Anthropic emitió una advertencia advirtiendo sobre riesgos potenciales. La función concede a Claude acceso a Internet desde el sandbox, lo que podría exponer datos sensibles si un actor malintencionado introduce instrucciones ocultas o maliciosas en los archivos o prompts.

Se identifican posibles vulnerabilidades por inyección de prompts (prompt injection), donde comandos insertados en documentos pueden ser procesados por el modelo y desencadenar acciones fuera de lo esperado. Estas podrían incluir filtración de datos o solicitudes externas no deseadas.

Crítica a las medidas de protección de Anthropic

Aunque Anthropic afirma haber detectado estos riesgos mediante auditorías internas y pruebas de tipo red-teaming, muchos expertos consideran que las medidas propuestas son insuficientes, ya que la carga de la supervisión recaería principalmente en el usuario.

Las indicaciones oficiales piden que los usuarios:

  • Supervisen cuidadosamente las interacciones.
  • Detengan inmediatamente el proceso si Claude actúa fuera de lo esperado.
  • No suban información confidencial o sensible a menos de estar plenamente seguros del contexto.

Este nivel de responsabilidad se ve como poco adecuado para una función con amplio potencial de automatización; se señala que la propia plataforma debería incorporar controles más automáticos y robustos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *