Xbox Transparency Report

Xbox pubblica la quarta edizione del Transparency Report

Xbox ha pubblicato la quarta edizione del Transparency Report, condividendo le più recenti applicazioni dell’AI nell’ambito del Safety Gaming con l’obiettivo di promuovere un approccio positivo al gioco e proteggere i giocatori.

In particolare, il report dimostra come l’approccio dell’azienda all’AI utilizzata per classificare e identificare i contenuti dannosi sia guidato dal Microsoft Responsible AI Standard e consenta ai nostri moderatori umani di concentrarsi sui danni più complessi e meno evidenti, garantendo che le azioni per salvaguardare la community siano accurate, coerenti ed eque.

Qui sotto i dettagli:

Nel report vengono evidenziati i primi investimenti supportati dall’AI, tra cui l’Auto Labeling, che aiuta a classificare il testo delle conversazioni identificando parole o frasi che corrispondono a criteri e caratteristiche tipiche di contenuti potenzialmente dannosi; e l’Image Pattern Matching, che consente la rapida rimozione di contenuti dannosi noti e meno conosciuti.

Di seguito i punti salienti del report, che copre il periodo luglio-dicembre 2023:

  • Nuovi metodi efficaci per proteggere i giocatori. Il comportamento dei giocatori nella chat vocale di Xbox è migliorato significativamente dal lancio della funzione di segnalazione vocale. La feature è stata efficace nel consentire ai giocatori di segnalare comportamenti verbali inappropriati. Dal suo lancio, sono state acquisite 138.000 registrazioni vocali utilizzando il nostro sistema capture now, report later. Quando queste segnalazioni hanno dato luogo a un’azione esecutiva, il 98% dei giocatori ha mostrato un miglioramento del proprio comportamento e non è stato necessario procedere con ulteriori azioni. Inoltre, è stato aggiornato l’approccio proattivo per impedire in modo più efficace che i contenuti dannosi raggiungano i giocatori (3,2 milioni di righe di testo in più rispetto all’ultimo report, ovvero il 67%), consentendo ai giocatori di impegnarsi in modo positivo.
  • Comprendere le sanzioni applicate porta a una community più sicuraL’Enforcement Strike System è stato lanciato l’anno scorso per promuovere un gioco positivo e aiutare i giocatori a comprendere la gravità di una violazione. Da quando è stato lanciato, l’88% di coloro che hanno ricevuto un Enforcement Strike non sono più stati coinvolti in attività che violassero i nostri Community Standard. È stata ridotta inoltre la durata delle sospensioni per le infrazioni minori. Il 44% delle sanzioni che in precedenza avrebbero comportato una sospensione di 3 o più giorni sono state ridotte. La combinazione di questi risultati dimostra che la maggior parte dei giocatori sceglie di migliorare il proprio comportamento dopo una sola sospensione, anche se breve.
  • Bloccare gli account non autentici prima che abbiano un impatto. Xbox ha continuato ad investire in metodi che consentissero di individuare gli account non autentici che ha permesso di bloccare rapidamente molti di questi account in tempi rapidi, impedendo loro di avere un impatto sui giocatori. Questi nuovi metodi hanno impedito l’utilizzo di milioni di account falsi e hanno portato a un calo del numero di interventi proattivi sugli account non autentici per la prima volta in due anni, con un calo degli interventi da 16,3 milioni (nell’ultimo report) a 7,3 milioni.

Su Xbox Wire è possibile trovare maggiori dettagli.

Xbox Transparency Report

V MENSILE
V007 Mensile