• Nick Clegg, presidente degli affari globali di Meta, ha ammesso che i sistemi di moderazione dei contenuti dell'azienda rimuovono erroneamente un numero eccessivo di contenuti innocui dalle piattaforme di Meta, causando una limitazione ingiustificata della libertà di espressione.
• Questa situazione, che ha portato a rimozioni aggressive di post anche durante la pandemia di Covid-19, sembra essere dovuta a sistemi automatizzati troppo grossolani, come evidenziato da numerosi esempi recenti su Threads e dalle critiche dell'Oversight Board di Meta.
• Sebbene Meta non abbia ancora apportato modifiche sostanziali alle sue regole sui contenuti, i commenti di Clegg suggeriscono che l'azienda è consapevole del problema e che sono previsti importanti cambiamenti futuri per migliorare l'accuratezza dei sistemi di moderazione e ridurre gli errori.