Olen itse ohjelmistoalalla tekemässä tuotteita joissa käytetään tekoälyä. En varsinaisesti kehitä tekoälyä itse, mutta olen niiden kanssa tekemisissä.
Nykyisin kuuminta hottia olevissa generatiivisissa tekoälymalleissa on hyvä tietää miten ne toimivat. Malleihin on talletettu suuri määrä (miljardeja) lukuja, jotka koodaavat "todennäköisyyksiä", joista malli laskee mikä sana on sopiva seuraamaan annettua sanajonoa. Nämä "todennäköisyys"luvut on laskettu ja talletettu malliin syöttämällä kaikki internetistä löytyvä teksti ja laskemalla miljardit parametrit niin että malli "muistaa" sanajonot ja niiden esiintymismäärät. Jos sanajono on vaikka "putin on", niin malli valitsee seuraavan sanan lukujen perusteella jotka on laskettu kaikista internetissä olevista "putin on" ja samankaltaisista esimerkeistä. Esimerkkitapauksessa seuraava sana olisi "mulkku" koska tämä esiintyy useimmiten treenaustekstimassassa
Olennainen pointti on, että mallissa ei ole tietoa sanojen merkityksestä, se vain laskee talletettujen numeroiden perusteella mikä sana sopii parhaiten edellisten sanojen perään.
Laitoin edellä sanat "todennäköisyys" ja "muistaa" lainausmerkkeihin, sillä tarkkaan ottaen kyseessä ei ole todennäköisyys vaan sen approksimaatio, eikä malli "muista" yhtään mitään, se vain laskee lineaarialgebran kaavoilla.
Tästä seuraa se hauska piirre, että malli voi tuottaa vakuuttavalta kuulostavaa potaskaa, siis tekstiä joka ei ole totta. Tätä kutsutaan hallusinoinniksi.
Sori jos tuli liikaa yksityiskohtia... Jotta tämä olisi jotenkin palstalle liittyvää, niin minua ainakin mietityttää intistä nurmiporana kotoutuneena mahdollisuus, että tekoälyn ohjaama oma drooni päättäisi iskeä omiin asemiin hallusinoinnin tms takia. Ja vaikka generatiivistä mallia ei käytettäisikään, niin samankaltaisia ongelmia on esimerkiksi tekoälyhahmontunnistuksessa, jota voisi käyttää maalien tunnistamisessa. Tekoälyn ohjaaman droonin saisi toimimaan ehkä 95% oikein, mutta itse hakeutuisin mahdollisimman kauas maalialueelta.