Skip to main content

Confidentiality and Data Handling

Keeping client data safe when using AI tools.

Confidenzialità e trattamento dei dati

Il lavoro legale spesso implica dati sensibili dei clienti. Usate queste pratiche per proteggerli quando usate l'IA.

Sapere dove vanno i dati

  • Modelli cloud: Gli input possono essere usati per l'addestramento o memorizzati sui sistemi del fornitore. Verificate i termini di servizio del vostro fornitore.
  • Opzioni locali: Strumenti come Claude Cowork possono essere eseguiti sul vostro computer e mantenere i dati in locale.
  • Piani enterprise: Spesso includono un trattamento dei dati più rigoroso e garanzie di non addestramento.

Prima di incollare

  • Rimuovete o anonimizzate nomi, identificatori e termini confidenziali quando possibile.
  • Usate esempi sintetici o redatti per testare i prompt.
  • Evitate di caricare interi fascicoli clienti a meno che il fornitore e il piano non lo consentano.

Politiche dello studio

  • Ottenete linee guida chiare dal vostro studio su strumenti IA approvati e casi d'uso.
  • Documentate cosa avete usato e quali dati sono stati condivisi.
  • Escalate prima di usare l'IA su fascicoli ad alto rischio.

Controlli su segreti di repository e MCP

  • Prima che un agente lavori in un repository, eseguite controlli di secret scanning compatibili con GitHub MCP quando disponibili e mantenete attiva la push protection del repository.
  • Trattate ogni server MCP, GitHub Action e hook come un limite di autorizzazioni: usate repository secrets, allowlist esplicite di strumenti e revisione umana prima del merge.

In caso di dubbio, assumete che i dati escano dal vostro controllo a meno che il fornitore non indichi diversamente.