Confidentiality and Data Handling
Keeping client data safe when using AI tools.
Confidenzialità e trattamento dei dati
Il lavoro legale spesso implica dati sensibili dei clienti. Usate queste pratiche per proteggerli quando usate l'IA.
Sapere dove vanno i dati
- Modelli cloud: Gli input possono essere usati per l'addestramento o memorizzati sui sistemi del fornitore. Verificate i termini di servizio del vostro fornitore.
- Opzioni locali: Strumenti come Claude Cowork possono essere eseguiti sul vostro computer e mantenere i dati in locale.
- Piani enterprise: Spesso includono un trattamento dei dati più rigoroso e garanzie di non addestramento.
Prima di incollare
- Rimuovete o anonimizzate nomi, identificatori e termini confidenziali quando possibile.
- Usate esempi sintetici o redatti per testare i prompt.
- Evitate di caricare interi fascicoli clienti a meno che il fornitore e il piano non lo consentano.
Politiche dello studio
- Ottenete linee guida chiare dal vostro studio su strumenti IA approvati e casi d'uso.
- Documentate cosa avete usato e quali dati sono stati condivisi.
- Escalate prima di usare l'IA su fascicoli ad alto rischio.
Controlli su segreti di repository e MCP
- Prima che un agente lavori in un repository, eseguite controlli di secret scanning compatibili con GitHub MCP quando disponibili e mantenete attiva la push protection del repository.
- Trattate ogni server MCP, GitHub Action e hook come un limite di autorizzazioni: usate repository secrets, allowlist esplicite di strumenti e revisione umana prima del merge.
In caso di dubbio, assumete che i dati escano dal vostro controllo a meno che il fornitore non indichi diversamente.