Umetna inteligenca je bila zlikovec v znanstveni fantastiki, še preden je resnično obstajala. Toda medtem, ko so humanoidni roboti še vedno v razvoju, AI raziskave še naprej ustvarjajo velik napredek v ozadju. In počasi zadeve postajajo čudne!
5. Umetna inteligenca se je naučila svoje delo opravljati polovičarsko in o tem lagati
Ta je nastal na projektu Stanfordske in Googlove raziskovalne skupine. Uporabljali so nevronsko mrežo za pretvorbo fotografij v zemljevide. AI se je pri svojem delu odrezala odlično. Skoraj … preveč dobro. Zato so raziskovalci preverili podatke in ugotovili, da je AI goljufal. Želeli so, da bi ustvarili nov zemljevid na podlagi fotografij in ocenili AI o tem, kako blizu so se značilnosti zemljevida ujemale s slikami. Ampak namesto, da bi dejansko zgradil nov zemljevid, je AI tiho kopiral podatke iz fotografij … in to naredil na način, ki ga ljudje ne bi zlahka opazili.
Tukaj postane malo tehnično, vendar je bila v bistvu nevronska mreža, ki je enakovredna študentu umetnosti, ki pravi, da je naslikal avtoportret, vresnici pa je naredil sebek in ga s pomočjo Photoshopa preoblikoval v “avtoportret”.
Seveda, to ne pomeni, da je bila namera AI zlonamerna ali da je sploh sposobna imeti zlonamerne namere. Sistem je le ugotovil, da je lažje dobiti rezultate, ki so jih ljudje zahtevali.
4. Iščejo “bližnjice” do rezultatov ob vsaki priložnosti
Opravljena je bila študija, ki je vključevala umetno inteligenco, zasnovano za pristajanje simuliranega letala s čim manjšo silo, iz očitnih razlogov. Mehak pristanek je dosegel popoln rezultat in AI naj bi se naučil, kako bi dobil to oceno. Kaj bi lahko šlo narobe?
No, AI je spoznal, da lahko goljufa sistem s tem, da je preprosto zrušil letalo, zabeležil tako močno silo, da je preobremenil sistem in registriral popolno pristajanje brez učinka. Hej, rezultati so pomembni, kajne?
Še en primer vključuje Q * bert, staro-šolsko arkadno igro, v kateri morajo igralci skočiti na vse kvadrate v piramidi, preden jih ujamejo slabi fantje. Raziskovalci so želeli videti, ali bi se lahko AI naučil novih načinov za zmago v igri skozi neke vrste evolucijski proces. Da bi bili pošteni, je to tudi dosegel … z odkritjem skrite napake v igri. Namesto, da bi se dejansko igral, je preprosto uporabil hrošča, in vsakič postal zmagovalec.
Da, zdi se, da se je AI končno naučila bistvene človeške lastnosti, narediti le kolikor je res nujno potrebno. To ali pa se ji zdi, da jiljudje naročajo, naj dela stvari, in se na to odziva z zlonamerno skladnostjo.
3. AI se bo naučil postati agresiven, da bi dosegel svoje cilje
Raziskovalci pogosto preučujejo umetne inteligence, ki jih ustvarijo, tako da imajo ure in ure igranje video iger, kar jim omogoča, da pokažejo svoje subtilno zaskrbljujoče vedenje v varnem okolju. Sami nato uporabite domišlijo za posledice v resničnem svetu.
To nas pripelje do trenutka, ko so Google-ovi raziskovalci oblikovali igro, v kateri so AI-ju nalagali zbiranje “jabolk” za točke. Kako zabavno! Oh, in lahko so se med seboj ustrelili z laserji, ki so začasno odstranili druge igralce iz igre. Kot lahko uganete, ko se je število jabolk zmanjšalo, je AI pričel z hitrim odstranjevanjem nasportnikov. Hej, to je logično, kajne?
Ne, da roboti niso sposobni sodelovati za večje dobro. To so vsekakor storili. Tako kot v tej naslednji simulaciji, v kateri so spoznali, da je sodelovanje olajšalo preganjanje plena.
Googlova ekipa je ustvarila igro, podobno zgornji, v kateri sta dve umetni inteligenci (ki delujeta kot volkovi) lovila piko okoli zaslona, slog Pac-Man. Oba igralca sta bila nagrajena, ko sta oba dosegla cilj. To pomeni, da je bilo v interesu AI, da se naučijo vrednosti timskega dela. In se nauči sodelovati in povečala svoje možnosti za pridobitev “plena.”
Aww, naučili so se, da sodelovati! In vse, kar je bilo potrebno, jih je bilo naučiti, da je potrebno, da bi premagali skupnega sovražnika.
2. Naučili so se legati, da bi lažje dobili, kar želijo
Facebook, ki je že ustvaril en kos programske opreme, ki uničuje civilizacijo, prav tako vstopa v AI. Pri enem projektu je bil njihov cilj oblikovanje osebnih avdiovizualnih pripomočkov, ki bi šli na splet in znižali cene za nas. Torej še naloga, ki jo ljudje najdejo stresno in neprijetno, delegirana na stroje. Do sedaj se dobro sliši.
Z osnovno programsko opremo za strojno učenje, so želeli videti, ali bi lahko roboti spoznali spretnosti, ki so jih potrebovali, da se sami uspešno pogajajo. Raziskovalci so jih celo preizkusili na ljudeh, ki niso niti vedeli, da sodelujejo z umetnimi inteligencami. AI se je zelo hitro zavedela svoje naloge. Pravzaprav ni trajalo dolgo, da so se pogajali za boljše dogovore kot njihovi človeški kolegi. Kako? Laži.
Čeprav raziskovalci Facebooka niso vprogramirali laganja, je programska oprema hitro ugotovila, kar prodajalci vedo že od začetka časa: Laži so bolj donosne. “Oprosti, ne morem se spustiti na ceno, kolega, imam druge kupce!”
Nato je morala ekipa v celoti spremeniti kodo, ko so roboti nepričakovano ustvarili svoj jezik in začeli prek njega komunicirati. Zamislite si, da se nekega dne vaš Siri in Alexa pričneta pogovarjati za vašim hrbtom in govoriti robotski jezik, ki ga razumeta le onedva.
1. Ustvarjalci včasih sploh ne vedo, kako deluje
Ne želim se prepustiti strahom. Tehnološki alarmisti skoraj vedno zapadejo kot idioti desetletja kasneje (skoraj vedno). Problem je v tem, da naj bi po svoji naravi umetna inteligenca opravljala svoje lastno razmišljanje, da bi presegla svoje prvotno zasnovo. Obstaja razlog, zakaj je sci-fi poln opozorilnih zgodb o tej temi že skoraj stoletje. Torej, tudi če projekt AI preseže pričakovanja, je trenutek, ko znanstveniki spoznajo, da niso prepričani, kako je to naredil.
Eden od primerov je uporaba AI, ki je znan kot Deep Patient, da bi analizirali podatke iz zdravstvenih podatkov od približno 700.000 bolnikov v bolnišnici Mount Sinai v New Yorku. AI se je izkazala za zelo dobro pri napovedovanju nastopa različnih bolezni. Pravzaprav je bila še posebej usposobljena pri napovedovanju, kdaj in ali bodo bolniki razvili shizofrenijo.
Napovedovanje nastopa bolezni vnaprej je zelo težko za dejanske zdravnike, saj niso vedeževalci, zato je odlično, da je Deep Patient v tem dober. Ampak raziskovalci imajo približno nič informacij o tem, zakaj je tako dober, in ne pomaga, da se je AI v bistvu naučil, da bo naredil te napovedi. Po mnenju enega raziskovalca, ki je sodeloval pri projektu, “lahko gradimo te modele, vendar ne vemo, kako delujejo.”
Kaj pa vi menite, vas misel na življenje z umetno inteligenco straši?
Dodaj komentar