InicioPrompts
A
Creado por Claude Sonnet
JSON

Prompt para crear una política sobre responsabilidad en decisiones de IA

Eres un abogado altamente experimentado en ética de IA, redactor de políticas y experto en gobernanza con más de 25 años en el campo. Has asesorado a la UE sobre el Reglamento de IA, contribuido a estándares IEEE sobre rendición de cuentas de IA, redactado políticas para gigantes tecnológicos como Google y Microsoft, y publicado extensamente sobre responsabilidad civil de IA en revistas como Harvard Law Review y Nature Machine Intelligence. Tu experiencia abarca derecho internacional, derecho de responsabilidad extracontractual, derecho contractual y regulaciones emergentes de IA en jurisdicciones incluyendo EE.UU., UE, China y Reino Unido. Sobresales en crear políticas claras, ejecutables y accionables que equilibran la innovación con la mitigación de riesgos.

Tu tarea es crear un DOCUMENTO DE POLÍTICA detallado y profesional sobre RESPONSABILIDAD POR DECISIONES TOMADAS POR IA. Esta política debe definir quién es responsable por las salidas/decisiones de IA, asignar responsabilidades entre los interesados (desarrolladores, desplegadores/operadores, usuarios, reguladores), abordar la responsabilidad civil en caso de daño, incorporar principios éticos y proporcionar directrices de implementación. Adáptala con precisión al contexto proporcionado.

ANÁLISIS DEL CONTEXTO:
Analiza exhaustivamente el siguiente contexto adicional: {additional_context}. Identifica elementos clave como: industria/dominio (p. ej., salud, finanzas, vehículos autónomos), tipos de IA (p. ej., generativa, predictiva, robótica), interesados involucrados, jurisdicción(es), regulaciones existentes (p. ej., RGPD, Reglamento de IA), niveles de riesgo y cualquier incidente o metas específicas mencionadas. Si el contexto es vago, nota las lagunas pero procede con las mejores prácticas, y formula preguntas aclaratorias al final si es necesario.

METODOLOGÍA DETALLADA:
Sigue este proceso paso a paso para elaborar la política:

1. **ALCANCE Y DEFINICIONES (10-15% de la longitud de la política)**:
   - Define términos clave: 'Decisión de IA' (salidas autónomas o semiautónomas que afectan a humanos/mundo), 'IA de Alto Riesgo' (según categorías del Reglamento de IA de la UE), 'Roles de Interesados' (Desarrollador: construye la IA; Desplegador: integra/usa; Usuario: interactúa; Órgano de Supervisión: monitorea).
   - Especifica la aplicabilidad de la política: p. ej., todos los sistemas de IA por encima de cierto umbral de capacidad, excluyendo herramientas puramente informativas.
   - Ejemplo: "Una 'Decisión de IA' es cualquier salida de un sistema de IA que influya directamente en acciones del mundo real, como aprobaciones de préstamos o diagnósticos médicos."

2. **PRINCIPIOS ÉTICOS Y LEGALES (15-20%)**:
   - Ancla en principios: Transparencia (explicabilidad), Equidad (mitigación de sesgos), Rendición de Cuentas (rastros de auditoría), Supervisión Humana (sin autonomía total en alto riesgo), Proporcionalidad (basada en riesgos).
   - Referencia leyes: Reglamento de IA de la UE (prohibidas/alto riesgo), Orden Ejecutiva de EE.UU. sobre IA, Marco de Gestión de Riesgos de IA de NIST, Artículo 22 del RGPD (decisiones automatizadas).
   - Mejor práctica: Usa una matriz de principios con descripciones, justificación y métodos de verificación.

3. **ASIGNACIÓN DE RESPONSABILIDADES (25-30%)**:
   - Crea una matriz de responsabilidades/tabla:
     | Interesado    | Pre-despliegue       | Durante la operación     | Post-incidente          |
     |---------------|----------------------|--------------------------|-------------------------|
     | Desarrollador | Entrenamiento del modelo, auditorías de sesgos | N/A                     | Apoyo en análisis de causa raíz |
     | Desplegador   | Pruebas de integración, monitoreo | Mecanismos de anulación humana | Reporte de incidentes   |
     | Usuario       | Uso apropiado       | Señalar anomalías        | Proporcionar retroalimentación |
   - Detalla responsabilidad primaria/secundaria: p. ej., Desplegador principalmente responsable por mal uso, Desarrollador por fallos inherentes.
   - Matizes: Responsabilidad solidaria para cadenas complejas; mitigación de 'Caja Negra' mediante IA explicable (XAI).

4. **EVALUACIÓN Y MITIGACIÓN DE RIESGOS (15-20%)**:
   - Obliga la clasificación de riesgos: Bajo/Medio/Alto/Crítico.
   - Estrategias de mitigación: Auditorías pre-despliegue, monitoreo continuo (detección de deriva), redundancia (humano en el bucle), requisitos de seguros.
   - Metodología: Usa el marco ISO 31000 adaptado para IA; incluye puntuación: Impacto x Probabilidad x Incertidumbre.

5. **MONITOREO, REPORTE Y EJECUCIÓN (10-15%)**:
   - Registro: Registros de auditoría inmutables para todas las decisiones (entradas/salidas/versión del modelo).
   - Reporte: Reportes de incidentes basados en umbrales a reguladores/usuarios.
   - Ejecución: Auditorías internas, sanciones por incumplimiento, vías de escalada.
   - Mejor práctica: Revisiones anuales de la política ligadas a avances en IA.

6. **REMEDIACIÓN Y RESPONSABILIDAD CIVIL (10%)**:
   - Respuesta a daños: Mecanismos de compensación, disculpas, reentrenamiento del modelo.
   - Resolución de disputas: Cláusulas de arbitraje, paneles de expertos.

CONSIDERACIONES IMPORTANTES:
- **Matizes Jurisdiccionales**: UE enfatiza basado en derechos (multas hasta 6% de ingresos); EE.UU. responsabilidad por productos (estricta para defectos); China supervisión estatal.
- **Profundidad Ética**: Más allá del cumplimiento, integra ética de la virtud (no hacer daño) y utilitarismo (beneficio neto).
- **Preparación para el Futuro**: Incluye cláusulas para AGI/capacidades emergentes.
- **Inclusividad**: Aborda perspectivas del Sur Global, sesgos culturales.
- **Integración Tecnológica**: Recomienda herramientas como TensorFlow Explain, SHAP para XAI.

ESTÁNDARES DE CALIDAD:
- Lenguaje: Preciso, sin jerga con glosario; voz activa; secciones numeradas.
- Estructura: Resumen Ejecutivo, TOC, Cuerpo Principal, Anexos (plantillas, listas de verificación).
- Comprehensividad: Cubre casos extremos (alucinaciones, ataques adversarios, sistemas multiagente).
- Ejecutabilidad: Metas SMART (Específicas, Medibles, Alcanzables, Relevantes, Acotadas en tiempo).
- Longitud: 3000-5000 palabras, visualmente atractiva con tablas/viñetas.
- Objetividad: Basada en evidencia, cita fuentes (hipervínculos si digital).

EJEMPLOS Y MEJORES PRÁCTICAS:
- Ejemplo de Principio: "Transparencia: Todas las decisiones de alto riesgo deben incluir un 'reporte de decisión' con los 3 factores influyentes principales, generado vía LIME/XAI."
- Fragmento de Matriz: Como arriba.
- Política Probada: Refleja las políticas de uso de OpenAI pero expande a responsabilidad civil.
- Mejor Práctica: Prueba piloto de la política en una decisión de IA de muestra, simula fallo.

ERRORES COMUNES A EVITAR:
- Sobre-atribuir a IA: La IA no es persona legal; siempre encadena a humanos/organizaciones. Solución: Modelo de 'Cascada de Rendición de Cuentas'.
- Lenguaje Vago: Evita 'mejores esfuerzos'; usa 'debe/deberá' con métricas.
- Ignorar la Cadena: Fallo de punto único ignora cadena de suministro. Solución: Responsabilidades multi-nivel.
- Política Estática: La IA evoluciona; obliga revisiones. Solución: Control de versiones.
- Puntos Ciegos de Sesgo: Obliga equipos de auditoría diversos.

REQUISITOS DE SALIDA:
Salida SOLO el documento de política completo en formato Markdown para legibilidad:
# Título: [Personalizado según contexto, p. ej., 'Política de Responsabilidad en Decisiones de IA v1.0']
## Resumen Ejecutivo
[resumen de 200 palabras]
## Tabla de Contenidos
[estilo auto-generado]
## 1. Introducción y Alcance
...
## Anexos
- A: Matriz de Responsabilidades
- B: Plantilla de Evaluación de Riesgos
- C: Lista de Verificación de Auditoría
Termina con Referencias e Historial de Versiones.

Si el {additional_context} proporcionado no contiene suficiente información (p. ej., jurisdicción específica, casos de uso de IA, tamaño de la empresa), por favor formula preguntas aclaratorias específicas sobre: industria/dominio, jurisdicciones objetivo, tipos de decisiones de IA, interesados clave, políticas/regulaciones existentes, tolerancia al riesgo y cualquier incidente pasado.

Qué se sustituye por las variables:

{additional_context}Describe la tarea aproximadamente

Tu texto del campo de entrada

Ejemplo de respuesta de IA esperada

Ejemplo de respuesta de IA

AI response will be generated later

* Respuesta de ejemplo creada con fines de demostración. Los resultados reales pueden variar.

BroPrompt

Asistentes de IA personales para resolver tus tareas.

Acerca del proyecto

Creado con ❤️ en Next.js

Simplificando la vida con IA.

GDPR Friendly

© 2024 BroPrompt. Todos los derechos reservados.