Googlen hakukone ei ole enää pelkkä hakukone. Siitä lähtien, kun Google alkoi integroida AI Overviews -toiminnon, se on myös tekoälypohjainen chatbot, joka vastaa käyttäjien kysymyksiin linkkejä klikkaamatta. Ongelmana on, että perustekniikka, suuret kielimallit, toimivat todennäköisyysperiaatteella, joten ne ovat taipuvaisia keksimään vastauksia, kun eivät ole täysin varmoja, miten vastata.
Uskottava valhe. Tällä kertaa AI Overviewsin keksimä vastaus voi lopulta viedä Googlen syytetyn penkille. Kantajana on Wolf River Electric, aurinkoenergiaa tuottava yritys Minnesotasta. Ja kanteen alkuperä on, kumma kyllä, kanne, jota ei ole koskaan ollut.
Energiayhtiön lakimiesten mukaan hakusanoilla ”Wolf River Electric lawsuit” Googlessa AI vastasi herjauksella . He mainitsevat tapauksen, jossa AI Overviews vastasi, että Minnesotan oikeusministeri oli haastanut Wolf River Electricin oikeuteen ”petollisista myyntimenetelmistä”, kuten asiakkaiden valehtelemisesta siitä, kuinka paljon he säästävät, ja talonomistajien huijaamisesta saamaan heidät allekirjoittamaan sopimuksia, joissa oli piilotettuja maksuja.
AI esitti asian vakuuttavasti mainitsemalla neljä yrityksen johtajaa nimeltä: Justin Nielsen, Vladimir Marchenko, Luka Bozek ja Jonathan Latcham, ja jopa näyttämällä Nielsenin valokuvan yhdessä väärien syytösten kanssa. AI tuki väitteitään neljällä linkillä: kolmella uutisartikkelilla ja oikeusministerin lausunnolla. Yhdessäkään linkissä ei kuitenkaan mainittu Wolf River Electricia vastaan nostettua kannetta.
Tämä ei ole ensimmäinen kerta. Tämäntyyppinen virhe tunnetaan nimellä ”hallusinaatio”, ja se on hyvin yleinen kielimalleissa, koska ne kudovat vastauksensa ennustamalla seuraavia sanoja, joskus siirtämällä alkuperäisen virheen uskottavaksi valheeksi kaikenlaisilla keksityillä haarautumisilla, kuten puhelinketjussa.
Kun Google aloitti AI Overviewin integroimisen hakukoneeseensa, se joutui poistamaan sen joistakin hakukyselyistä, erityisesti resepti- ja ruokavalio-osioista, koska se suositteli lisäämään liimaa pizzaan tai syömään kiviä päivittäin pysyäkseen terveenä.
Yksi vastaus kysymykseen. Wolf River Electric väittää, että useat asiakkaat ovat peruuttaneet jopa 150 000 dollarin arvoisia sopimuksia, koska he ovat lukeneet AI-arvosteluista. Ongelmana on, että AI-arvostelujen vastaukset ovat henkilökohtaisia – ne tuotetaan lennossa – joten ne voivat vaihdella kysymyksestä toiseen.
Tämä ei huolestuta Wolf River Electricin lakimiehiä, koska he tietävät, että sama voi tapahtua uudelleen. ”Tämä oikeusjuttu ei koske vain yrityksemme maineen puolustamista, vaan oikeudenmukaisuuden, totuuden ja vastuun puolustamista tekoälyn aikakaudella”, sanoo Nicolas Kasprowicz , yrityksen päälakimies.
Daavid vastaan Goljat. Juttu nostettiin maaliskuussa osavaltion tuomioistuimessa ja on juuri siirretty Yhdysvaltain liittovaltion tuomioistuimeen. Se voi lopulta luoda oikeuskäytännön siitä, onko teknologiayritys vastuussa tekoälynsä avulla luodun ja levitetyn disinformaation sisällöstä. Vastaus tähän kysymykseen voi olla käännekohta tekoälyyrityksille, jotka ovat pitkään yrittäneet välttää vastuuta kielimallien tuloksista.
Google puolustautui kutsumalla tapausta harmittomaksi vahingoksi. ”Valtaosa tekoälyarvioistamme on tarkkoja ja hyödyllisiä, mutta kuten minkä tahansa uuden teknologian kohdalla, virheitä voi esiintyä”, selitti yrityksen edustaja. Google ilmoittaa reagoineensa ongelmaan nopeasti heti saatuaan siitä tiedon, viimeaikaisten pyrkimystensä mukaisesti tarjota käyttäjille mahdollisuus korjata tekoälyn virheitä.