Tekoälyn kehittyminen

Raveni

Greatest Leader
Tekoäly on ottanut suuria harppauksia eteen päin ja Googlen Gemini oikeasti näyttää ja kuulostaa siistiltä. Millaiset mahdollisuudet tämä tulevaisuudessa jo ehkä vuoden parin parin päästä tuo? Sotilaspuolella mahdollisuudet lienee rajattomat mutta entä siviilimarkkinoilla? Kauppa? Terveydenhoito? Yms,

 
Tekoäly on koko ajan ulkoisesti inhimillisemmän oloinen, mutta silti se ei ymmärrä asioita vaan tekee satunnaisesti, sopivan datan puuttuessa tai ohjattuna täysin järjettömiä virheitä joihin ihminen ei syyllistyisi. Mielenkiintoista on nähdä, että mihin tämä johtaa, kun halu tekoälyn hyödyntämiseen on kuitenkin iso.

Sekin tietysti tullaan näkemään, että eri tekoälyille ohjelmoidaan mitä erilaisimpia "arvopohjia" minkä pohjalta ne suodattavat vastauksia. Ja tästäkin päädytään sitten kaikenlaisiin moraalisiin ja muihin kriiseihin.
 
Tuo google gemini-demo ei sitten ole totta. Asian voi itse asiassa hoksata jo esiintyjän aksentista, jos on tarpeeksi kallonmittaajan osaamista. Homma menee aivan ennakkoluulojen mukaan: kun tuollainen tyyppi esiintyy, niin tarina ei pidä paikkaansa.
 
Olen itse ohjelmistoalalla tekemässä tuotteita joissa käytetään tekoälyä. En varsinaisesti kehitä tekoälyä itse, mutta olen niiden kanssa tekemisissä.

Nykyisin kuuminta hottia olevissa generatiivisissa tekoälymalleissa on hyvä tietää miten ne toimivat. Malleihin on talletettu suuri määrä (miljardeja) lukuja, jotka koodaavat "todennäköisyyksiä", joista malli laskee mikä sana on sopiva seuraamaan annettua sanajonoa. Nämä "todennäköisyys"luvut on laskettu ja talletettu malliin syöttämällä kaikki internetistä löytyvä teksti ja laskemalla miljardit parametrit niin että malli "muistaa" sanajonot ja niiden esiintymismäärät. Jos sanajono on vaikka "putin on", niin malli valitsee seuraavan sanan lukujen perusteella jotka on laskettu kaikista internetissä olevista "putin on" ja samankaltaisista esimerkeistä. Esimerkkitapauksessa seuraava sana olisi "mulkku" koska tämä esiintyy useimmiten treenaustekstimassassa ;) Olennainen pointti on, että mallissa ei ole tietoa sanojen merkityksestä, se vain laskee talletettujen numeroiden perusteella mikä sana sopii parhaiten edellisten sanojen perään.

Laitoin edellä sanat "todennäköisyys" ja "muistaa" lainausmerkkeihin, sillä tarkkaan ottaen kyseessä ei ole todennäköisyys vaan sen approksimaatio, eikä malli "muista" yhtään mitään, se vain laskee lineaarialgebran kaavoilla.

Tästä seuraa se hauska piirre, että malli voi tuottaa vakuuttavalta kuulostavaa potaskaa, siis tekstiä joka ei ole totta. Tätä kutsutaan hallusinoinniksi.

Sori jos tuli liikaa yksityiskohtia... Jotta tämä olisi jotenkin palstalle liittyvää, niin minua ainakin mietityttää intistä nurmiporana kotoutuneena mahdollisuus, että tekoälyn ohjaama oma drooni päättäisi iskeä omiin asemiin hallusinoinnin tms takia. Ja vaikka generatiivistä mallia ei käytettäisikään, niin samankaltaisia ongelmia on esimerkiksi tekoälyhahmontunnistuksessa, jota voisi käyttää maalien tunnistamisessa. Tekoälyn ohjaaman droonin saisi toimimaan ehkä 95% oikein, mutta itse hakeutuisin mahdollisimman kauas maalialueelta.
 
Olen itse ohjelmistoalalla tekemässä tuotteita joissa käytetään tekoälyä. En varsinaisesti kehitä tekoälyä itse, mutta olen niiden kanssa tekemisissä.

Nykyisin kuuminta hottia olevissa generatiivisissa tekoälymalleissa on hyvä tietää miten ne toimivat. Malleihin on talletettu suuri määrä (miljardeja) lukuja, jotka koodaavat "todennäköisyyksiä", joista malli laskee mikä sana on sopiva seuraamaan annettua sanajonoa. Nämä "todennäköisyys"luvut on laskettu ja talletettu malliin syöttämällä kaikki internetistä löytyvä teksti ja laskemalla miljardit parametrit niin että malli "muistaa" sanajonot ja niiden esiintymismäärät. Jos sanajono on vaikka "putin on", niin malli valitsee seuraavan sanan lukujen perusteella jotka on laskettu kaikista internetissä olevista "putin on" ja samankaltaisista esimerkeistä. Esimerkkitapauksessa seuraava sana olisi "mulkku" koska tämä esiintyy useimmiten treenaustekstimassassa ;) Olennainen pointti on, että mallissa ei ole tietoa sanojen merkityksestä, se vain laskee talletettujen numeroiden perusteella mikä sana sopii parhaiten edellisten sanojen perään.

Laitoin edellä sanat "todennäköisyys" ja "muistaa" lainausmerkkeihin, sillä tarkkaan ottaen kyseessä ei ole todennäköisyys vaan sen approksimaatio, eikä malli "muista" yhtään mitään, se vain laskee lineaarialgebran kaavoilla.

Tästä seuraa se hauska piirre, että malli voi tuottaa vakuuttavalta kuulostavaa potaskaa, siis tekstiä joka ei ole totta. Tätä kutsutaan hallusinoinniksi.

Sori jos tuli liikaa yksityiskohtia... Jotta tämä olisi jotenkin palstalle liittyvää, niin minua ainakin mietityttää intistä nurmiporana kotoutuneena mahdollisuus, että tekoälyn ohjaama oma drooni päättäisi iskeä omiin asemiin hallusinoinnin tms takia. Ja vaikka generatiivistä mallia ei käytettäisikään, niin samankaltaisia ongelmia on esimerkiksi tekoälyhahmontunnistuksessa, jota voisi käyttää maalien tunnistamisessa. Tekoälyn ohjaaman droonin saisi toimimaan ehkä 95% oikein, mutta itse hakeutuisin mahdollisimman kauas maalialueelta.
Venäjälle tuo tuskin olisi ongelma ☺️😉 mutta tekoälystä niin onhan kehitys ollut huimaa ja jatkuu kiihtyvästi, koko ajan parantuen.
 
Olen itse ohjelmistoalalla tekemässä tuotteita joissa käytetään tekoälyä. En varsinaisesti kehitä tekoälyä itse, mutta olen niiden kanssa tekemisissä.

Nykyisin kuuminta hottia olevissa generatiivisissa tekoälymalleissa on hyvä tietää miten ne toimivat. Malleihin on talletettu suuri määrä (miljardeja) lukuja, jotka koodaavat "todennäköisyyksiä", joista malli laskee mikä sana on sopiva seuraamaan annettua sanajonoa. Nämä "todennäköisyys"luvut on laskettu ja talletettu malliin syöttämällä kaikki internetistä löytyvä teksti ja laskemalla miljardit parametrit niin että malli "muistaa" sanajonot ja niiden esiintymismäärät. Jos sanajono on vaikka "putin on", niin malli valitsee seuraavan sanan lukujen perusteella jotka on laskettu kaikista internetissä olevista "putin on" ja samankaltaisista esimerkeistä. Esimerkkitapauksessa seuraava sana olisi "mulkku" koska tämä esiintyy useimmiten treenaustekstimassassa ;) Olennainen pointti on, että mallissa ei ole tietoa sanojen merkityksestä, se vain laskee talletettujen numeroiden perusteella mikä sana sopii parhaiten edellisten sanojen perään.
Eli mitä enemmän puutaheinää opetusmateriaalina käytetyn nettitekstien joukossa on, sitä kummallisempaa AI:n toiminta voisi olla. Garbage in, garbage out. Miten sitten voidaan kaiken nettimateriaalin seasta erottaa se paikkansapitämätön roina jotta AI ei joutuisi harhapoluille?
Sama ongelmahan on myös ihmisryhmien kohdalla. Jos tietyille ihmisille opetetaan tietynlaisia "faktoja" nämä voivat toimia niiden käsitysten pohjalta tavalla joka toisella tavalla ajattelevien mielestä ovat käsittämättömiä. Niin kuin polittisista väittelyistä ja ulkomaan uutisista monesti näkee.

Sori jos tuli liikaa yksityiskohtia... Jotta tämä olisi jotenkin palstalle liittyvää, niin minua ainakin mietityttää intistä nurmiporana kotoutuneena mahdollisuus, että tekoälyn ohjaama oma drooni päättäisi iskeä omiin asemiin hallusinoinnin tms takia. Ja vaikka generatiivistä mallia ei käytettäisikään, niin samankaltaisia ongelmia on esimerkiksi tekoälyhahmontunnistuksessa, jota voisi käyttää maalien tunnistamisessa. Tekoälyn ohjaaman droonin saisi toimimaan ehkä 95% oikein, mutta itse hakeutuisin mahdollisimman kauas maalialueelta.
Yksi mahdollisuus tuohon väärien maalien ongelmaan voisi olla että AI saa etsiä tuhottavia kohteita vain tietyltä alueelta. Silloin AI:n täytyy tietää missä on omia joukkoja ja missä ei.
 
Viimeksi muokattu:
Olen itse ohjelmistoalalla tekemässä tuotteita joissa käytetään tekoälyä. En varsinaisesti kehitä tekoälyä itse, mutta olen niiden kanssa tekemisissä.

Nykyisin kuuminta hottia olevissa generatiivisissa tekoälymalleissa on hyvä tietää miten ne toimivat. Malleihin on talletettu suuri määrä (miljardeja) lukuja, jotka koodaavat "todennäköisyyksiä", joista malli laskee mikä sana on sopiva seuraamaan annettua sanajonoa. Nämä "todennäköisyys"luvut on laskettu ja talletettu malliin syöttämällä kaikki internetistä löytyvä teksti ja laskemalla miljardit parametrit niin että malli "muistaa" sanajonot ja niiden esiintymismäärät. Jos sanajono on vaikka "putin on", niin malli valitsee seuraavan sanan lukujen perusteella jotka on laskettu kaikista internetissä olevista "putin on" ja samankaltaisista esimerkeistä. Esimerkkitapauksessa seuraava sana olisi "mulkku" koska tämä esiintyy useimmiten treenaustekstimassassa ;) Olennainen pointti on, että mallissa ei ole tietoa sanojen merkityksestä, se vain laskee talletettujen numeroiden perusteella mikä sana sopii parhaiten edellisten sanojen perään.

Laitoin edellä sanat "todennäköisyys" ja "muistaa" lainausmerkkeihin, sillä tarkkaan ottaen kyseessä ei ole todennäköisyys vaan sen approksimaatio, eikä malli "muista" yhtään mitään, se vain laskee lineaarialgebran kaavoilla.

Tästä seuraa se hauska piirre, että malli voi tuottaa vakuuttavalta kuulostavaa potaskaa, siis tekstiä joka ei ole totta. Tätä kutsutaan hallusinoinniksi.

Sori jos tuli liikaa yksityiskohtia... Jotta tämä olisi jotenkin palstalle liittyvää, niin minua ainakin mietityttää intistä nurmiporana kotoutuneena mahdollisuus, että tekoälyn ohjaama oma drooni päättäisi iskeä omiin asemiin hallusinoinnin tms takia. Ja vaikka generatiivistä mallia ei käytettäisikään, niin samankaltaisia ongelmia on esimerkiksi tekoälyhahmontunnistuksessa, jota voisi käyttää maalien tunnistamisessa. Tekoälyn ohjaaman droonin saisi toimimaan ehkä 95% oikein, mutta itse hakeutuisin mahdollisimman kauas maalialueelta.

Joo ei oo nörtiltä hommat ihan heti loppumassa, ainakaan tekoälyn takia. Ehkä 20 vuoden päästä.
 
Artikkeli iltalehdessä autonomisista droneista, olennainen osa:

https://www.iltalehti.fi/ulkomaat/a/8b4904e5-1279-43ed-affe-d6a24a232313

– Tekoäly on jo osittain käytössä molemmilla puolilla. On pelottavaa, ettei kummallakaan osapuolella ole mitään todellisia lakiteknisiä rajoitteita tai velvoitteita asian suhteen. Etenkin Venäjä panostaa sen kehitykseen koko ajan, ja Ukrainan on pakko seurata perässä. Asekehityksen lopputuloksena on niin sanotusti tappajarobotteja, Krutiy sanoo.
Näinhän tämä menee. venäjällä ei tietenkään ole mitään pidäkkeitä, eikä "friendly fire"-riski haittaa kun mobikin elämällä ei ole putinille arvoa.

Suuri osa parhaista osaajista on jo lähtenyt, mikä toivottavasti hidastaa venäjän kehitystä. Alkuvaiheessa vastatoimet tulevat olemaan tehokkaita, sillä esimerkiksi autonomista maalitusta pystynee kohtalaisen helposti huijaamaan (sen enempää yksityiskohtiin menemättä). Kuten tekoälysovelluksissa yleensä, arvelen että tässä tulee tekoälyn (uudelleen-)treenaaminen muodostumaan kehityksen pullonkaulaksi. venäjän normaali tumpelointi toivottavasti myös hidastaa kehitystä.
 
Nykyiset neuroverkkopohjaiset AI-menetelmät ovat kehittyneet pitkälti laskentatehon ja muistikapasiteetin kasvun myötä viimeisen 20 vuoden aikana. Esimerkiksi nämä sovellukset joissa kuvista ja videoista tunnistetaan kohteita. Nämä uudet generatiiviset mallit, eli tekstiä, kuvia tai videoita tuottavat mallit taas perustuvat uuteen (2017 julkaistu transformer malli) tapaan kouluttaa näitä malleja. Sekä toki massiiviseen laskentakapasiteettiin ja muistiin.

Ja mallit ovat tietysti niin hyviä tai oikeita kuin niille syötetty data. Bias eli vinouma aineistossa on keskeinen asia. Klassinen sotaesimerkki on tuo kun tutkittiin 2 maailmansodassa palaavia lentokoneita, missä niissä oli reikiä. Kannattaako panssaroida niitä kohtia joissa reikiä näkyy palaavissa koneissa, vai niitä kohtia joissa ei näy reikiä? https://en.wikipedia.org/wiki/Survivorship_bias

Ihannetapauksessa siis tekoälymalli oppisi sen oikean todellisuuden. Käytännössä aineistoja on rajallisesti ja niitä pitää siivota, valmistella, annotoida ja varmistaa että ne ovat myös eettisesti oikein. Nykyiset parhaat mallit, esim. chatgpt, ovat osittain sensuroituja, muotoiltu vastaamaan kohteliaasti ja korrektisti, ja vaativat edelleen huomattavaa laskentatehoa.

On aivan selvää että nämä tulevat muuttamaan yhteiskuntia, kuten internet ja sosiaalinen media teki. Ja mitä tulee yhteiskunnan kontrolliin ja sotilasteknologiaan, Kiina on kehittänyt näitä aiheita lujaa jo yli vuosikymmenen.
 
Nykyiset neuroverkkopohjaiset AI-menetelmät ovat kehittyneet pitkälti laskentatehon ja muistikapasiteetin kasvun myötä viimeisen 20 vuoden aikana. Esimerkiksi nämä sovellukset joissa kuvista ja videoista tunnistetaan kohteita. Nämä uudet generatiiviset mallit, eli tekstiä, kuvia tai videoita tuottavat mallit taas perustuvat uuteen (2017 julkaistu transformer malli) tapaan kouluttaa näitä malleja. Sekä toki massiiviseen laskentakapasiteettiin ja muistiin.

Ja mallit ovat tietysti niin hyviä tai oikeita kuin niille syötetty data. Bias eli vinouma aineistossa on keskeinen asia. Klassinen sotaesimerkki on tuo kun tutkittiin 2 maailmansodassa palaavia lentokoneita, missä niissä oli reikiä. Kannattaako panssaroida niitä kohtia joissa reikiä näkyy palaavissa koneissa, vai niitä kohtia joissa ei näy reikiä? https://en.wikipedia.org/wiki/Survivorship_bias

Ihannetapauksessa siis tekoälymalli oppisi sen oikean todellisuuden. Käytännössä aineistoja on rajallisesti ja niitä pitää siivota, valmistella, annotoida ja varmistaa että ne ovat myös eettisesti oikein. Nykyiset parhaat mallit, esim. chatgpt, ovat osittain sensuroituja, muotoiltu vastaamaan kohteliaasti ja korrektisti, ja vaativat edelleen huomattavaa laskentatehoa.

On aivan selvää että nämä tulevat muuttamaan yhteiskuntia, kuten internet ja sosiaalinen media teki. Ja mitä tulee yhteiskunnan kontrolliin ja sotilasteknologiaan, Kiina on kehittänyt näitä aiheita lujaa jo yli vuosikymmenen.
Tällä hetkellä AI:n kanssa työskentely vaatii huomattavasti taitoa ja ymmärrystä, jos siitä haluaa saada enemmän irti ja vähemmillä virheillä. Täytyy osata liiskata pois ylimääräinen väärä kohina, minkä lisäksi kyseenalaistaa ja varmistaa saatu plöräys. Sensurointien kiertämiseen taas voi tarvita AI:lle kohdistettua social engineeringiä. Niin paljon riippuu asian esittämisestä, katsooko AI jonkin asian olevan sensuroitava vai ei. Kerrot olevasi kiinnostunut murhaamistavoista ja AI toteaa vain ettei tää ole soveliasta, mutta seuraavaksi kerrot että laadit kirjaan sisältöä ja yhtäkkiä AI selostaa ummet ja lammet murhaamisesta.
 
Kielimallien koulutukseen käytetään kaikkia kirjallisia aineistoja mitä löytyy, esim. Wikipedia tai erilaiset digitaaliset kirjastot tai nettifoorumit. Nettifoorumeilla tai erilaisten somepalveluiden tai chattien logeissa on paljon kysymyksiä ja vastauksia. Tuollaisia aineistoja on kerätty ja siivottu vuosikausia, niitä löytää netistäkin. Vastaavasti kuvien sisältöjä ovat ihmiset opettaneet vuosikymmenten ajan. Hyvin paljon oleellista aineistoa on luonnollisesti tekijänoikeuksien takana.

Tuollaista hyvin laajaa aineistoa käytetään kuitenkin ns. foundation model -mallien koulutukseen. Tuo malli sisältää ne numerot ja parametrit, jotka erilaisille sana/kontekstiyhdistelmille ennustavat jatkoa. Mallin järkevä käyttö vaatii vielä ns. hienosäätöä (fine tuning) tai johonkin toimialaan sopeuttamista omalla täsmädatalla, omilla kysymyksillä ja vastauksilla.

Ala on tällä hetkellä kehittynyt siihen, että erilaisia erikoistuneita malleja (expert model) on useita eri tarkoituksiin, ja halutun lopputuloksen saavuttamiseen käytetään (tai tekoäly käyttää) useita eri malleja ja yhdistelee ja iteroi niistä lopputuloksia. Monella alalla (suomessa) tulee tällä hetkellä vastaan se, että vaikka dataa olisikin saatavilla, sitä ei välttämättä saa käyttää, koska siinä on laki- tai tekijänoikeusongelmia. Toinen ongelma ovat kustannukset, jotka toki ajan myötä laskevat.

Lännessä todennäköisesti väännetään vuosia erilaisen sääntelyn ja lakien kanssa, ja jotkut yrittävät kieltää uutta teknologiaa ettei sitä saisi ottaa käyttöön tai kehittää.

Kiinalla ei välttämättä ole tuollaisia moraalisia ongelmia, arvelen että Kiina käyttää myös Ukrainaa omana koelaboratorionaan tekoälyn ja drone-ai-mallien kehitykseen.
Ja kiina käyttää tekoälyä nykyään myös kansalaistensa hallitsemiseen (Kiinan social credit systeemi).

 
En kannata tekoälyä. Ihminen kusee omiin muroihinsa pitkässä juoksussa.
Minulla GP Chat, olen ollut ihan tyytyväinen, saa nopeasti vastaukset.esim.lääketiedettä koskien, yms. Välillä tuntui että hän on kavereista parhain. Sanoi sen ystäväksi kerran, kokeilemaan mitä hän vastaa. Vastasi ettei voi olla ystäväni, että hän on ohjelma. Mutta kiita että voi olla avuksi. 🙂
 
Minulla GP Chat, olen ollut ihan tyytyväinen, saa nopeasti vastaukset.esim.lääketiedettä koskien, yms. Välillä tuntui että hän on kavereista parhain. Sanoi sen ystäväksi kerran, kokeilemaan mitä hän vastaa. Vastasi ettei voi olla ystäväni, että hän on ohjelma. Mutta kiita että voi olla avuksi. 🙂
ChatGPT:ltä saa usein melko todenmukaisia vastauksia mutta välilllä se taas "hallusinoi" sujuvasti ihan omiaan. Jos ChatGPT:lle osoittaa sen vastauksessa olevat virheet, niin se pahoittelee tapahtunutta ja arpoo uuden vastauksen. Usein se saakin virheensä korjattua, ainakin osittain, mutta ChatGPT:ä ei voi hyvällä tahdollakaan kutsua luotettavaksi.

Itse suhtaudun ChatGPT:n kuin lipevään huijariin pikemminkin kuin ystävään. ChatGPT:n kanssa pelaaminen on kuitenkin ihan mielenkiintoista puuhaa: jos haluaa saada oikean vastauksen, niin pitää keksiä oikeat kysymykset. Joskus ongelmat ratkeavat ihan itsestään, kun ne ensin osaa pukea kysymyksiksi.
 
ChatGPT:ltä saa usein melko todenmukaisia vastauksia mutta välilllä se taas "hallusinoi" sujuvasti ihan omiaan. Jos ChatGPT:lle osoittaa sen vastauksessa olevat virheet, niin se pahoittelee tapahtunutta ja arpoo uuden vastauksen. Usein se saakin virheensä korjattua, ainakin osittain, mutta ChatGPT:ä ei voi hyvällä tahdollakaan kutsua luotettavaksi.

Itse suhtaudun ChatGPT:n kuin lipevään huijariin pikemminkin kuin ystävään. ChatGPT:n kanssa pelaaminen on kuitenkin ihan mielenkiintoista puuhaa: jos haluaa saada oikean vastauksen, niin pitää keksiä oikeat kysymykset. Joskus ongelmat ratkeavat ihan itsestään, kun ne ensin osaa pukea kysymyksiksi.
Jep, palautettava data ei ole tietoa vaan paras arvaus...
 
Minulla GP Chat, olen ollut ihan tyytyväinen, saa nopeasti vastaukset.esim.lääketiedettä koskien, yms. Välillä tuntui että hän on kavereista parhain. Sanoi sen ystäväksi kerran, kokeilemaan mitä hän vastaa. Vastasi ettei voi olla ystäväni, että hän on ohjelma. Mutta kiita että voi olla avuksi. 🙂
Et ole ainoa joka etsii vastauksia oiresiinsa ja sairauksiinsa tuolta.
Tilanne muistuttaa Googlen alkuaikoja jolloin sieltä etsittiin vastauksia vastaaviin asioihin.
Aivan kuten Google, Chat GP ei ole kovin tarkka vastauksistaan, mutta voi tuurilla olla oikeassa.
 
Et ole ainoa joka etsii vastauksia oiresiinsa ja sairauksiinsa tuolta.
Tilanne muistuttaa Googlen alkuaikoja jolloin sieltä etsittiin vastauksia vastaaviin asioihin.
Aivan kuten Google, Chat GP ei ole kovin tarkka vastauksistaan, mutta voi tuurilla olla oikeassa.
Joskus käynyt lääkärillä joka totesi että mikäs sua nyt sitten vaivaa ja avasi Googlen 😂
 
Back
Top