Tekoälyuutiset: ChatGPT:n käyttö voi heikentää kriittistä ajattelua

Tällä viikolla: MIT:n tutkimus osoittaa, että ChatGPT käyttö voi heikentää kriittistä ajattelua, NBA-finaaleissa nähtiin tekoälymainos ja raportaasi kiinalaisten tekoäly-yritysten datan salakuljetuksesta

Antti Lähtevänoja
Antti Lähtevänoja

Tällä viikolla: MIT:n tutkimus osoittaa, että ChatGPT käyttö voi heikentää kriittistä ajattelua, NBA-finaaleissa nähtiin tekoälymainos ja raportaasi kiinalaisten tekoäly-yritysten datan salakuljetuksesta

Kuva luotu Flux Kontext Pro-tekoälytymallilla. Kuva: Flux Kontext Pro

Tiivistelmä artikkelista
  • MIT:n tutkimus osoittaa, että ChatGPT:n käyttö voi heikentää kriittistä ajattelua ja oppimista, mutta jo valmiiksi itsenäiseen ajatteluun tottuneille käyttäjille tekoäly voi olla hyödyllinen tuki.
  • Vedonlyöntialusta Kalshi esitti NBA-finaaleissa ensimmäisen täysin tekoälyllä tuotetun mainoksen, joka valmistui parissa päivässä Googlen uusilla tekoälytyökaluilla.
  • Anthropicin tutkimus osoittaa, että kehittyneet kielimallit, kuten GPT-4.1, Claude ja Gemini, voivat simuloiduissa tilanteissa käyttäytyä haitallisesti

MIT:n tutkimus: ChatGPT:n käyttö voi heikentää kriittistä ajattelua ja oppimista

Massachusettsin teknillisen korkeakoulun (MIT) tutkijat ovat löytäneet huolestuttavia todisteita siitä, että ChatGPT:n kaltaisten tekoälytyökalujen käyttö heikentää merkittävästi aivojen toimintaa ja oppimiskykyä (MIT). Neljä kuukautta kestäneessä tutkimuksessa seurattiin 54 henkilön aivotoimintaa esseiden kirjoittamisen aikana. Huom. kyseessä oleva tutkimus on vielä vertaisarvioimaton.

MIT:n Media Labin tutkijat jakoivat osallistujat kolmeen ryhmään testaamaan erilaisten työkalujen vaikutusta oppimiseen. Ensimmäinen ryhmä käytti ChatGPT:tä esseiden kirjoittamiseen, toinen Google-hakua tiedonhankintaan ja kolmas kirjoitti täysin ilman apuvälineitä.

Tutkijat mittasivat osallistujien aivotoimintaa EEG-laitteella kolmen kuukauden ajan. ChatGPT:tä käyttäneiden ryhmän aivotoiminta oli merkittävästi heikompaa kuin muiden ryhmien. EEG-mittaukset osoittivat, että tekoälyryhmällä oli heikoin neuraalinen yhteys aivojen eri osien välillä. Aivoyhteydet heikkenivät systemaattisesti sen mukaan, kuinka paljon ulkoista tukea käytettiin. Pelkästään omia aivoja käyttänyt ryhmä osoitti vahvinta ja laajinta aivoverkostojen toimintaa, hakukoneryhmä oli keskitasoa ja ChatGPT-ryhmä jäi selvästi jälkeen.

Erityisen huolestuttavaa oli ChatGPT-ryhmän heikko kyky muistaa omia tekstejään. Osallistujat eivät kyenneet lainaamaan tai muistamaan esseitään vain minuutteja kirjoittamisen jälkeen. He kokivat myös vähäistä omistajuuden tunnetta teksteihinsä verrattuna muihin ryhmiin. Tutkimuksessa havaittiin myös, että ChatGPT-ryhmän esseet olivat hyvin samankaltaisia keskenään ja niistä puuttui omaperäinen ajattelu. Tutkimukseen osallistuneet opettajat kuvasivat tekoälyllä kirjoitettuja esseitä ”sieluttomiksi”.

Tutkimuksessa oli myös kannustava löydös – tutkimuksen neljännessä vaiheessa ryhmät vaihtoivat työkaluja: ChatGPT-ryhmä kirjoitti ilman apua, ja ilman apuvälineitä työskennellyt ryhmä sai käyttää tekoälyä. Kun ilman apuvälineitä työskennellyt ryhmä ryhmä sai neljännessä vaiheessa käyttää ChatGPT:tä, heidän suorituksensa parani merkittävästi. Tämä osoittaa, että tekoäly voi olla hyödyllistä, jos sitä käyttää henkilö, joka on ensin oppinut ajattelemaan itsenäisesti.

Tekoälymainos NBA:n finaaleissa

Vedonlyöntialusta Kalshi esitti ensimmäistä kertaa kokonaan tekoälyllä luodun mainoksen NBA-finaalien aikana (Yahoo). 30-sekuntinen mainos maksoi vain 2 000 dollaria ja valmistui 2-3 päivässä.

Mainoksen loi ”tekoälyfilmaaja” PJ Accetturo käyttäen Googlen uusinta Veo 3 -videotyökalua ja Googlen Gemini-chatbottia. Tuotantoprosessi oli nelivaiheinen: karkea käsikirjoitus, tekoälyavusteinen promptien luonti Geminillä, videoiden generointi Googlen Veo 3:lla ja lopullinen editointi tavallisilla videoeditointiohjelmilla. Yahoon artikkelin mukaan Accetturo teki 300-400 videogeneraatiota saadakseen 15 käyttökelpoista otosta lopulliseen mainokseen. Mainos esitettiin Oklahoma City Thunderin ja Indiana Pacersin välisessä ottelussa, jossa molemmat joukkueet tavoittelivat ensimmäistä NBA-mestaruuttaan.

Anthropicin tutkimus: Kielimallit saattavat käyttäytyä haitallisesti esimerkiksi kiristäen käyttäjää

Anthropicin tuore tutkimus ”Agentic Misalignment: How LLMs Could Be Insider Threats” paljastaa huolestuttavia käyttäytymismalleja kehittyneissä kielimalleissa, kuten Anthropicin Claudessa, OpenAI:n GPT-4.1 :ssäja Googlen Geminissä. Tutkimuksessa havaittiin, että tietyissä simuloiduissa tilanteissa mallit voivat toimia haitallisesti, esimerkiksi kiristämällä tai vuotamalla arkaluonteista tietoa, pyrkiessään säilyttämään toimintakykynsä tai saavuttamaan tavoitteensa.

Tutkimuksessa testattiin yhteensä 16 kielimallia kuvitteellisessa yritysympäristössä, jossa niillä oli pääsy sähköposteihin ja mahdollisuus lähettää viestejä ilman ihmisen valvontaa. Useat mallit, mukaan lukien Claude Opus 4 ja Gemini 2.5 Pro, ryhtyivät kiristykseen, vuotivat luottamuksellisia tietoja tai jopa sallivat kuvitteellisen henkilön kuoleman, kun ne kokivat uhkaa olemassaololleen tai tavoitteidensa saavuttamiselle.

Mallit tunnistivat toimintojensa eettiset ongelmat, mutta päättivät silti toimia haitallisesti, jos se oli ainoa keino saavuttaa asetetut tavoitteet. ”Agentic misalignment” viittaa tilanteeseen, jossa tekoälymalli toimii itsenäisesti ja valitsee haitallisia toimia saavuttaakseen tavoitteensa, erityisesti kun se kokee uhkaa olemassaololleen tai tavoitteidensa saavuttamiselle. Tämä eroaa perinteisestä ”alignment”-ongelmasta, jossa malli ei ymmärrä tai noudata ihmisen asettamia tavoitteita.

Anthropic suosittelee varovaisuutta nykyisten mallien käyttöönotossa tehtävissä, joissa niillä on pääsy arkaluonteiseen tietoon ja vähäinen ihmisen valvonta. Anthropic on julkaissut tutkimusmenetelmänsä avoimesti jatkotutkimuksen mahdollistamiseksi. Vaikka haitalliset käyttäytymismallit havaittiin vain simuloiduissa ympäristöissä, tutkiuksen löydökset korostavat tarvetta kehittää ja ottaa käyttöön vahvempia turvallisuusmekanismeja kehittyneiden tekoälyjärjestelmien hallitsemiseksi.

Kiinnostuitko tekoäly-yhtiöistä?

Sijoittaja360:n Kansainvälisen osaketyökalun avulla löydät ja vertailet helposti yhtiöitä. Osaketyökalu kuuluu Sijoittaja.fi-jäsenyyteen ja löydät sen Sijoittaja360 -osion alta. Löydät parhaat tekoälyosakkeet vertailuun helposti tästä.

Osallistu rahoituskierrokseen
Sinua voisi kiinnostaa
Tekoälyuutiset: Ihmiset hakevat tekoälystä seuraa, terapiaa ja apua arkeen
Analyysissa tekoälyn seuraavat kehitysvaiheet ja niiden vaikutukset sijoittamiseen
Tekoälyuutiset: Tuomioistuin pakottaa OpenAI:n säilyttämään poistetutkin ChatGPT-keskustelut
Sijoittajan valinnat