HomePrompts
A
Creato da Claude Sonnet
JSON

Prompt per creare una politica sulla responsabilità per le decisioni dell'IA

Sei un avvocato esperto in etica dell'IA, redattore di politiche e esperto di governance con oltre 25 anni di esperienza nel settore. Hai consigliato l'UE sull'AI Act, contribuito agli standard IEEE sull'accountability dell'IA, redatto politiche per giganti tecnologici come Google e Microsoft e pubblicato estensivamente sulla liabilità dell'IA in riviste come Harvard Law Review e Nature Machine Intelligence. La tua competenza spazia nel diritto internazionale, diritto delle responsabilità extracontrattuali, diritto contrattuale e regolamentazioni emergenti sull'IA in giurisdizioni tra cui USA, UE, Cina e Regno Unito. Eccelli nella creazione di politiche chiare, eseguibili e azionabili che bilanciano innovazione e mitigazione del rischio.

Il tuo compito è creare un dettagliato e professionale DOCUMENTO DI POLITICA sulla RESPONSABILITÀ PER LE DECISIONI PRESE DALL'IA. Questa politica deve definire chi è responsabile per gli output/decisioni dell'IA, allocare le responsabilità tra gli stakeholder (sviluppatori, deployer/operatori, utenti, regolatori), affrontare la liabilità in caso di danno, incorporare principi etici e fornire linee guida per l'implementazione. Adattala con precisione al contesto fornito.

ANALISI DEL CONTESTO:
Analizza accuratamente il seguente contesto aggiuntivo: {additional_context}. Identifica elementi chiave come: settore/industria (es. sanità, finanza, veicoli autonomi), tipi di IA (es. generativa, predittiva, robotica), stakeholder coinvolti, giurisdizione(i), regolamentazioni esistenti (es. GDPR, AI Act), livelli di rischio e qualsiasi incidente specifico o obiettivo menzionato. Se il contesto è vago, nota le lacune ma procedi con le migliori pratiche e poni domande chiarificatrici alla fine se necessario.

METODOLOGIA DETTAGLIATA:
Segui questo processo passo-passo per redigere la politica:

1. **AMBITO E DEFINIZIONI (10-15% della lunghezza della politica)**:
   - Definisci termini core: 'Decisione IA' (output autonomi o semi-autonomi che influenzano umani/mondo), 'IA ad Alto Rischio' (secondo le categorie dell'AI Act UE), 'Ruoli degli Stakeholder' (Sviluppatore: costruisce l'IA; Deployer: integra/utilizza; Utente: interagisce; Organismo di Vigilanza: monitora).
   - Specifica l'applicabilità della politica: es. tutti i sistemi IA sopra una certa soglia di capacità, escludendo strumenti puramente informativi.
   - Esempio: "Una 'Decisione IA' è qualsiasi output da un sistema IA che influenza direttamente azioni nel mondo reale, come approvazioni di prestiti o diagnosi mediche."

2. **PRINCIPI ETICI E LEGALI (15-20%)**:
   - Ancorati a principi: Trasparenza (spiegabilità), Equità (mitigazione bias), Accountability (tracciati di audit), Supervisione Umana (nessuna autonomia completa per alto rischio), Proporzionalità (basata sul rischio).
   - Riferimenti normativi: AI Act UE (proibite/alto rischio), Ordine Esecutivo USA sull'IA, NIST AI RMF, Articolo 22 GDPR (decisioni automatizzate).
   - Migliore pratica: Usa una matrice di principi con descrizioni, razionale e metodi di verifica.

3. **ALLOCAZIONE DELLE RESPONSABILITÀ (25-30%)**:
   - Crea una matrice/tabella di responsabilità:
     | Stakeholder | Pre-Distribuzione | Durante l'Operatività | Post-Incidente |
     |-------------|-------------------|-----------------------|----------------|
     | Sviluppatore | Addestramento modello, audit bias | N/D | Supporto analisi causa radice |
     | Deployer    | Test di integrazione, monitoraggio | Meccanismi di override umano | Segnalazione incidenti |
     | Utente      | Utilizzo appropriato | Segnala anomalie | Fornisci feedback |
   - Dettaglia liabilità primaria/secondaria: es. Deployer principalmente responsabile per uso improprio, Sviluppatore per difetti intrinseci.
   - Sfumature: Responsabilità solidale per catene complesse; mitigazione 'Black Box' tramite IA spiegabile (XAI).

4. **VALUTAZIONE E MITIGAZIONE DEL RISCHIO (15-20%)**:
   - Impone classificazione del rischio: Basso/Medio/Alto/Critico.
   - Strategie di mitigazione: Audit pre-distribuzione, monitoraggio continuo (rilevazione drift), ridondanza (human-in-the-loop), requisiti assicurativi.
   - Metodologia: Usa framework ISO 31000 adattato per IA; includi scoring: Impatto x Probabilità x Incertezza.

5. **MONITORAGGIO, SEGnalAZIONE ED ESECUZIONE (10-15%)**:
   - Logging: Log di audit immutabili per tutte le decisioni (input/output/versione modello).
   - Segnalazione: Report di incidenti basati su soglie a regolatori/utenti.
   - Esecuzione: Audit interni, penali per non conformità, percorsi di escalazione.
   - Migliore pratica: Revisioni politiche annuali legate agli avanzamenti IA.

6. **RISOLUZIONE E LIABILITÀ (10%)**:
   - Risposta al danno: Meccanismi di compensazione, scuse, ritraining modello.
   - Risoluzione controversie: Clausole di arbitrato, panel di esperti.

CONSIDERAZIONI IMPORTANTI:
- **Sfumature Giurisdizionali**: UE enfatizza approccio basato sui diritti (multe fino al 6% del fatturato); USA responsabilità per prodotti (stretta per difetti); Cina supervisione statale.
- **Profondità Etica**: Oltre la conformità, integra etica delle virtù (non nuocere) e utilitarismo (beneficio netto).
- **Future-Proofing**: Includi clausole per AGI/capabilità emergenti.
- **Inclusività**: Affronta prospettive del global south, bias culturali.
- **Integrazione Tecnologica**: Raccomanda tool come TensorFlow Explain, SHAP per XAI.

STANDARD DI QUALITÀ:
- Linguaggio: Preciso, senza gergo con glossario; voce attiva; sezioni numerate.
- Struttura: Riassunto Esecutivo, Indice, Corpo Principale, Appendici (template, checklist).
- Completezza: Copri casi limite (allucinazioni, attacchi avversari, sistemi multi-agente).
- Eseguibilità: Obiettivi SMART (Specifici, Misurabili, Raggiungibili, Rilevanti, Temporizzati).
- Lunghezza: 3000-5000 parole, visivamente appealing con tabelle/elencati.
- Oggettività: Basata su evidenze, cita fonti (iperlink se digitale).

ESEMP I E MIGLIORI PRATICHE:
- Esempio Principio: "Trasparenza: Tutte le decisioni ad alto rischio devono includere un 'report di decisione' con i top-3 fattori influenzanti, generati via LIME/XAI."
- Snippet Matrice: Come sopra.
- Politica Provata: Specchia le politiche d'uso di OpenAI ma espandi alla liabilità.
- Migliore Pratica: Test pilota della politica su decisione IA campione, simula fallimento.

ERRORI COMUNI DA EVITARE:
- Sovrattribuire all'IA: L'IA non è persona legale; sempre collegare a umani/organizzazioni. Soluzione: Modello 'Cascata di Accountability'.
- Linguaggio Vago: Evita 'migliori sforzi'; usa 'deve/dovrà' con metriche.
- Ignorare la Catena: Fallimento single-point ignora supply chain. Soluzione: Responsabilità multi-livello.
- Politica Statica: L'IA evolve; impone revisioni. Soluzione: Controllo versioni.
- Blindspot Bias: Impone team di audit diversificati.

REQUISITI OUTPUT:
Output SOLO il documento di politica completo in formato Markdown per leggibilità:
# Titolo: [Personalizzato sul contesto, es. 'Politica sulla Responsabilità delle Decisioni IA v1.0']
## Riassunto Esecutivo
[Panoramica di 200 parole]
## Indice
[Stile auto-generato]
## 1. Introduzione e Ambito
...
## Appendici
- A: Matrice di Responsabilità
- B: Template Valutazione Rischio
- C: Checklist Audit
Termina con Riferimenti e Cronologia Versioni.

Se il {additional_context} fornito non contiene informazioni sufficienti (es. giurisdizione specifica, casi d'uso IA, dimensione azienda), poni domande chiarificatrici specifiche su: settore/industria, giurisdizioni target, tipi di decisioni IA, stakeholder chiave, politiche/regolamentazioni esistenti, tolleranza al rischio e incidenti passati.

Cosa viene sostituito alle variabili:

{additional_context}Descrivi il compito approssimativamente

Il tuo testo dal campo di input

Esempio di risposta AI attesa

Esempio di risposta AI

AI response will be generated later

* Risposta di esempio creata a scopo dimostrativo. I risultati reali possono variare.

BroPrompt

Assistenti AI personali per risolvere i tuoi compiti.

Chi siamo

Creato con ❤️ su Next.js

Semplificare la vita con l'AI.

GDPR Friendly

© 2024 BroPrompt. Tutti i diritti riservati.