È da un anno che si parla di un tool di OpenAI che sarebbe capace di identificare un testo generato da Intelligenza Artificiale (IA).
Da alcune indiscrezioni del Wall Street Journal, lo strumento sarebbe già pronto da tempo, ma il suo rilascio sembra essere bloccato per discussioni interne al team di ChatGPT.
Timore downgrade
“Il metodo per applicare watermark al testo che stiamo sviluppando è tecnicamente promettente, ma comporta rischi importanti che stiamo valutando, mentre cerchiamo alternative. Crediamo che l’approccio deliberato che abbiamo adottato sia necessario, considerando le complessità coinvolte e il suo probabile impatto su un ampio ecosistema che va oltre OpenAI”, dichiara un portavoce della start-up.
Dopo più di un anno dal rilascio della sua IA, OpenAI affronta le problematiche e cerca soluzioni sulla questione watermark. Infatti, molti testi prodotti da IA sono erroneamente rivendicati come produzione personale: per evitare questa appropriazione, il team di OpenAI avrebbe prodotto il nuovo tool “text watermark”.
Tuttavia, questa soluzione sembra essere bloccata dall’interno non perchè non sia efficiente, ma per una questione di attrattiva. Infatti, l’azienda tecnologica ha timore di diminuire l’interesse verso il chatbot con il lancio del tool.
Applicando un watermark al testo prodotto, molti user potrebbero smettere di usare ChatGPT. Secondo un sondaggio eseguito da OpenAI, sarebbero un terzo gli utenti che si allontanerebbero dall’utilizzo del chatbot.
Dunque, anche se i test dimostrano un’efficacia del 99% sull’esattezza da parte dello strumento di “text watermark”, il tool non è rilasciato al pubblico.
Articolo di T.S.