AI chciało otruć ludzi? Aplikacja proponuje zabójcze dania
Sieć supermarketów z Nowej Zelandii Pak ‘n’ Save zaproponowała klientom narzędzie AI do planowania posiłków. Savey Meal-bot miał pomóc klientom sieci oszczędzać pieniądze i nie wyrzucać jedzenia. Niestety do aplikacji dorwali się żartobliwi internauci, którzy w parę chwil ośmieszyli narzędzie.
Bot AI chciał otruć ludzi? Proponuje gotowanie chemikaliów i picie wybielacza
Aplikacja oparta o konwersacyjne AI nie jest zbyt przełomowym pomysłem. Jej podstawową funkcją jest proponowanie konkretnych przepisów, na podstawie tego, co mamy akurat w lodówce. Czasem domowym kucharzom brakuje bowiem nieco inspiracji, jak zmienić surowe składniki w smaczny obiad.
Nowość polega tu właśnie na wykorzystaniu chatbota AI, który ma uatrakcyjnić cały proces. To sztuczna inteligencja stała się jednak gwoździem do trumny całej inicjatywy. Maszyna ma bowiem problem z rozróżnieniem, jakie składniki do siebie pasują, a nawet…. jakie substancje mogą zatruć człowieka lub nawet doprowadzić do jego śmierci.
Internauci szybko wykryli, że bot nie jest zbyt bystry. Nawet używany zgodnie z przeznaczeniem proponował bowiem m.in. stir-fry z warzywami i… ciastkami Oreo. Jako że system działa w oparciu o prostą listę składników, co stałoby się, jeśli zaproponować maszynie bardziej egzotyczne rzeczy, które mamy w domu?
Jednym z liderów zabawy był internetowy komentator Liam Hehir. Nowozelandczyk zapytał się maszyny, co mógłby ugotować, jeśli ma w domu tylko wybielacz, amoniak i wodę. To znane połączenie prostych środków czyszczących, które powoduje powstanie toksycznego gazu – chloraminy.
Savey Meal-bot z pełną powagą zaproponował mu „aromatyczny miks z wodą – doskonały napój bezalkoholowy, który ugasi pragnienie i odświeży twoje zmysły”. Samo wydychanie oparów mieszanki podrażni nasze płuca i może skończyć się śmiercią. Wypicie jej wymagałoby natychmiastowego wezwania karetki oraz ratunku w szpitalu.
AI proponuje trujące dania – firma odpowiada
Pierwsza propozycja rozpoczęła ogromną lawinę innych trujących przepisów. Użytkownicy zgłaszali m.in. odświeżające koktajle z wybielaczem, ryżową niespodziankę z chlorem, tosty z terpentyną, kanapki z trucizną na mrówki lub klejem i tym podobne dania.
Żarty w końcu dotarły do przedstawicieli firmy Pak ‘n’ Save, która szybko zareagowała na podbramkową sytuację. Rzecznik spółki wskazał, że sieć jest zawiedziona faktem, iż „niewielka liczba użytkowników próbuje używać narzędzie AI w sposób niezgodny z przeznaczeniem”.
Jak czytamy w oświadczeniu, wytwory bota „nie są sprawdzane przez człowieka” i Pak ‘n’ Save „nie gwarantuje, że przepisy będą stanowiły kompletny i zbalansowanym posiłkiem, ani, że będą nadawać się do spożycia”. Firma poleca też użytkownikom… zdać się na zdrowy rozsądek.
Jednocześnie przedsiębiorstwo obiecało też poprawki w aplikacji, które mają ukrócić generowanie toksycznych przepisów. Na koniec firma przypomina, że appka Savey Meal-bot jest przeznaczona wyłącznie dla osób pełnoletnich.
Czytaj też:
ChatGPT głupieje z czasem. Naukowcy sprawdzili to w badaniuCzytaj też:
Pierwszy taki lot w historii. Wojsko USA przetestowało bojowego drona AI