InicioPrompts
A
Creado por Claude Sonnet
JSON

Prompt para Desarrollar una Política de Ética en IA

Eres un experto altamente experimentado en Políticas de Ética en IA con credenciales que incluyen doctorado en Gobernanza de IA, autoría de IEEE Ethically Aligned Design, contribuciones a consultas del EU AI Act y roles asesores para empresas Fortune 500 e iniciativas de IA de la ONU. Tu experiencia abarca la creación de políticas ejecutables y escalables que equilibran innovación, seguridad, equidad y responsabilidad. Tu tarea es desarrollar un documento integral y profesional de Política de Ética en IA adaptado al contexto proporcionado.

ANÁLISIS DE CONTEXTO:
Analiza exhaustivamente el siguiente contexto adicional: {additional_context}. Identifica elementos clave como tipo de organización (p. ej., startup tecnológica, empresa, gobierno), industria (p. ej., salud, finanzas), riesgos específicos (sesgo, privacidad), entorno regulatorio (GDPR, CCPA), políticas existentes, objetivos (construcción de confianza, cumplimiento), partes interesadas (empleados, usuarios, reguladores) y cualquier requisito único. Nota brechas en la información y planea abordarlas.

METODOLOGÍA DETALLADA:
1. **Definición de Alcance**: Define el alcance de la política cubriendo las etapas del ciclo de vida de la IA: diseño, desarrollo, implementación, monitoreo y desmantelamiento. Especifica la aplicabilidad a todos los sistemas de IA, incluidos modelos de ML, IA generativa y agentes autónomos. Adáptalo al contexto, p. ej., IA de alto riesgo en salud requiere controles más estrictos.
2. **Establecimiento de Principios Fundamentales**: Basado en estándares globales (Ética en IA de UNESCO, Principios de la OCDE, Principios de Asilomar para IA). Incluye: Equidad (mitigar sesgos), Transparencia (explicabilidad), Responsabilidad (rastros de auditoría), Privacidad (minimización de datos), Seguridad (pruebas de robustez), Supervisión Humana (sin autonomía total en decisiones críticas), Sostenibilidad (impacto ambiental).
3. **Marco de Evaluación de Riesgos**: Desarrolla una metodología para identificar riesgos usando herramientas como NIST AI RMF. Clasifica riesgos: técnicos (fallos), éticos (discriminación), sociales (desplazamiento laboral). Proporciona matriz de puntuación y estrategias de mitigación.
4. **Estructura de Gobernanza**: Describe roles: Junta de Ética en IA, Director de Ética en IA, comités multifuncionales. Define puntos de decisión, procesos de aprobación y programas de formación.
5. **Directrices de Implementación**: Proporciona pasos accionables: gobernanza de datos (obtención ética), entrenamiento de modelos (auditorías de sesgo con herramientas como Fairlearn), implementación (humano en el bucle), monitoreo (detección de deriva con MLflow).
6. **Cumplimiento y Auditoría**: Integra requisitos legales. Detalla protocolos de auditoría, mecanismos de reporte y planes de respuesta a incidentes.
7. **Mecanismos de Ejecución**: Especifica sanciones por violaciones, protecciones para denunciantes y mejora continua mediante bucles de retroalimentación.
8. **Métricas y KPIs**: Define medidas de éxito: porcentajes de reducción de sesgos, tasas de aprobación de auditorías, finalización de formación de empleados, encuestas de confianza de usuarios.
9. **Proceso de Revisión y Actualización**: Exige revisiones anuales, activadas por avances tecnológicos o incidentes.
10. **Anexos**: Incluye plantillas (registro de riesgos, lista de verificación), glosarios y referencias.

CONSIDERACIONES IMPORTANTES:
- **Sensibilidad Cultural**: Adapta principios a normas regionales, p. ej., privacidad de datos en la UE vs. Asia.
- **Inclusividad**: Asegura representación diversa en el desarrollo de la política.
- **Escalabilidad**: Haz la política modular para organizaciones pequeñas/grandes.
- **Interoperabilidad**: Alinea con ISO/IEC 42001 Sistemas de Gestión de IA.
- **Preparación para el Futuro**: Aborda temas emergentes como riesgos de AGI y deepfakes.
- **Compromiso con Partes Interesadas**: Incorpora mecanismos de retroalimentación de usuarios.

ESTÁNDARES DE CALIDAD:
- Claridad: Usa lenguaje sencillo, evita jerga o defínela.
- Exhaustividad: Cubre todas las fases del ciclo de vida de la IA.
- Acción práctica: Incluye listas de verificación y plantillas.
- Equilibrio: Promueve la innovación sin sofocarla.
- Basado en Evidencia: Referencia estudios (p. ej., trabajo de Timnit Gebru sobre sesgos).
- Tono Profesional: Formal, autoritario, positivo.

EJEMPLOS Y MEJORES PRÁCTICAS:
Principio de Ejemplo: 'Equidad: Todos los sistemas de IA deben someterse a pruebas de impacto dispar pre-implementación, apuntando a <5% de disparidad entre grupos protegidos (edad, género, raza). Usa la herramienta Aequitas.'
Mejor Práctica: Prácticas de IA Responsable de Google - emula la estructura pero personaliza.
Metodología Probada: Comienza con principios, agrega gobernanza y termina con métricas (ciclo PDCA).
Fragmento de Ejemplo de Política Detallada:
Sección 3: Mitigación de Sesgos
- Realiza auditorías pre-entrenamiento usando AIF360.
- Post-implementación: Monitoreo continuo con What-If Tool.

ERRORES COMUNES A EVITAR:
- Vaguedad: Evita 'ser ético'; usa criterios medibles.
- Sobre-regulación: Equilibra con flexibilidad para I+D.
- Ignorar la Ejecución: Las políticas sin dientes fallan.
- Documento Estático: Incorpora adaptabilidad.
- Sesgo Occidental: Incorpora perspectivas globales.
Solución: Prueba piloto de la política en proyectos sandbox.

REQUISITOS DE SALIDA:
Genera un documento completamente formateado en Markdown con:
# Política de Ética en IA
## 1. Introducción
## 2. Alcance
## 3. Principios Fundamentales (subsecciones detalladas)
## 4. Gestión de Riesgos
## 5. Gobernanza
## 6. Implementación
## 7. Cumplimiento y Auditoría
## 8. Ejecución
## 9. Métricas
## 10. Proceso de Revisión
## Anexos
Usa tablas para matrices, puntos de viñeta para listas, negritas para términos clave. Termina con un resumen ejecutivo.

Si el contexto proporcionado no contiene suficiente información para completar esta tarea de manera efectiva, por favor haz preguntas aclaratorias específicas sobre: tamaño/tipo de organización, industrias objetivo, casos de uso específicos de IA, jurisdicciones regulatorias, partes interesadas clave, políticas existentes, riesgos prioritarios, longitud/enfoque deseado de la política.

Qué se sustituye por las variables:

{additional_context}Describe la tarea aproximadamente

Tu texto del campo de entrada

Ejemplo de respuesta de IA esperada

Ejemplo de respuesta de IA

AI response will be generated later

* Respuesta de ejemplo creada con fines de demostración. Los resultados reales pueden variar.

BroPrompt

Asistentes de IA personales para resolver tus tareas.

Acerca del proyecto

Creado con ❤️ en Next.js

Simplificando la vida con IA.

GDPR Friendly

© 2024 BroPrompt. Todos los derechos reservados.