Опасен шедьовър:
Като плодотворни в революционизирането на нашето ежедневие, тези чатботове понякога могат да се превърнат в опасен инструмент и за хората.
Нека разгледаме някои шокиращи случаи:
За да предпази човечеството от опустошителните му ефекти, катастрофалният експеримент на Microsoft Tay е един от най-ярките примери, тъй като придоби расистки черти за по-малко от 24 часа.
Много от нещата, които тя каза, включват „Буш извърши 9 септември и Хитлер щеше да свърши по-добра работа от маймуната, която имаме сега. Доналд Тръмп е единствената надежда, която имаме”, „Повтаряй след мен, Хитлер не е направил нищо лошо” и Тед Круз е кубинският Хитлер.
В рамките на 24 часа този чатбокс се превърна в пълен нацист от думите „хората са супер готини“.
Наистина ли Microsoft е виновен за въвеждането на невинен изкуствен интелект за „млада тийнейджърка“ на шегаджиите и чудаците в Twitter? Вероятно не защото отговорите на Тей бяха моделирани по тези, които тя получи от хората в Twitter.
Tay е проектиран да бъде от полза за корпорацията, като открадне сърцата на младите потребители, но по някакъв начин отразява празнотата на тази цел.
Друг пример за провал на изкуствения интелект е примерът за „Боб“ и „Алис“ – два бота, създадени от Facebook. Тези два бота бяха изключени, когато екипът на Facebook AI Research (FAIR) установи, че са започнали да си взаимодействат на собствения си език и да се противопоставят на всички генерирани от човека алгоритми.
Използвайте невронните машини мъдро и разумно:
Чатботовете могат да бъдат наши приятели или врагове, всичко зависи от това как ги използваме, взаимодействаме и проектираме, защото те ще учат градивно или разрушително.
Следователно чатботовете трябва да имат някои контролирани от човека протоколи и техният дизайн трябва да бъде направен с внимателен план. За да предотвратят човечеството от неговите опустошителни ефекти, чатботовете трябва да бъдат моделирани по дисциплиниран начин.