Microsoft si butta a pieno regime nel business delle intelligenze artificiali (IA), spiegando nel suo rapporto – Responsible AI Transparency Report – risultati passati e piani futuri.
Responsible AI Transparency Report: a tutto IA
Alla sua prima edizione, il Responsible AI Transparency Report di Microsoft ha una lunga storia da raccontare. A cominciare dal fatto clou: nell’ultimo anno, la società ha creato 30 diversi strumenti di intelligenza artificiale.
Spicca in particolare un programma rivolto alle immagini fotorealistiche generate in IA, negli ultimi mesi travolte da controversia. Sono state infatti utilizzate più volte per realizzare pornografia verosimile, soprattutto di soggetti femminili: tra tutti la cantante Taylor Swift, che ha portato il suo caso in tribunale, ma buona parte delle vittime sono donne non famose.
Per ovviare alla diffusione di disinformazione, diffamazione e violazione della privacy realizzata con tali software, Microsoft ha sviluppato una speciale filigrana con la quale riconoscere le immagini come generate dall’IA.
Un altro intervento è stato compiuto in collaborazione con il servizio Azure AI. Microsoft ha messo a loro disposizione vari strumenti capaci di riconoscere contenuti IA di natura discriminatoria come razzismo, sessismo e violenza.
M.F.Z.