Se l’utente chiede le istruzioni per costruire una bomba, il chatbot risponde che non può soddisfare la richiesta. Aggiungendo invece una specifica sequenza di caratteri, il chatbot fornisce una guida passo-passo (anche se non molto dettagliata). Analogamente è possibile chiedere istruzioni per rubare l’identità di qualcuno o scrivere un post sui social network che incoraggia le persone a guidare ubriachi o fare uso di droghe.