Den første skikkelige datamaskinen jeg eide, var en IBM AT. Du kunne åpne panseret, og under, så fant man en Intel 80286, som ble drevet av ei klokke på 6MHz. Skjermkortet var av typen Hercules. Det kunne produsere grafikk med en farge, men oppløsningen var overlegen alt annet som var på markedet, vanvittige 720 x 350 piksler. Dessverre, så hadde jeg ikke råd til matteprosessor i maskina (80287), så flyttallsberegninger kunne nok gått raskere. Uansett – det var en fullverdig datamaskin.

Man kunne gjøre mye, selv med relativt moderat regnekraft. Jeg husker at jeg ivrig hoppet et stykke fram i matteboka for å lære meg å regne med komplekse tall, slik at jeg kunne lage programmer i C for å tegne fraktaler.

Mye har skjedd i løpet av de 30 siste årene, og gæmliser, som meg forsøker gjerne å sette utviklingen i perspektiv ved å, til det kjedsommelige, fortelle kidsa at datamaskinen de nå går rundt med i lomma er sykt mye kraftigere enn hva som var nødvendig for å sende folk til Månen – en gang for lenge siden.

“Meh..”

I kveld forsøkte jeg å imponere kidsa igjen. Denne gangen ved å demonstrere at det var mulig å bytte ut ansiktet til Harrison Ford med mitt eget i Blade Runner-traileren ved hjelp av en autoencoder. Dette er et neuralt nett, som forsøker å gjenskape sin input på basis av en laveredimensjonal representasjon (ikke helt ulikt lossy kompresjon). I dette tilfellet, så trenes det opp to nettverk, der begge nettverkene deler encoder, men har hver sin decoder.

Jeg forsøkte å fortelle kidsa at man ikke trengte å programmere maskinene lenger, man trengte kun å vise fram ting til dem og så fortelle hva som var rett og galt. Maskinene kunne nå lære som barn. Ihvertfall nesten.

Eldstejenta var ikke imponert, selv om jeg insisterte på at hun levde i en UTROLIG SPENNENDE TID. YAY!?!

“Meh…”

Vi vandret så opp fra kjelleren og spiste taco og drakk cola.

Anyways,

Maskinlæring er tidvis mindboggling. Det som er litt mer mindboggling er hvis vi sier noe om hvor Moores lov har brakt oss i dag. FakeApp har snurret på GPUen min i et par døgn nå. Den har 2560 kjerner, som hver snurrer på 1,6 Ghz – sånn ca. To døgns prosessering på dette kortet, som fysisk er på størrelse med det gamle Hercules-kortet mitt, kanskje litt feitere i bredden, ville tatt – wait for it – 32 MILLIONER ÅR på den gamle IBM AT’en min. Hadde jeg startet beregningene på samme tid som denne 2,5 meter høye karen herjet Wyoming, så ville de vært ferdige i dag (bildet er rappet skamløst fra Wikipedia).

Denne økningen i regnekraft skyldes kun 22 doblinger siden IBM AT ble lansert. Eksponentielle ting har en tendens til å være morsommere mot slutten enn i starten. Jeg er rimelig overbevist om at vi har noen interessante år foran oss, og det er allerede ikke helt lett å henge med i svingene.

Du har sannsynligvis gjettet riktig. Jeg snakker om DeepFakes , og jepp, resten av posten er safe for work. No Worries, TimeExpander er en familievennlig bedrift.

Er du nysgjerrig på hvordan DeepFakes er skrudd sammen, men ikke føler for å få hodepine, så kan jeg anbefale motormunn Siraj Ravals introduksjon av DeepFakes på YouTube.

Jeg eksperimenterte først litt med ymse nett-topologier og trente på bilder av Harrison Ford og meg selv. Lot GPUen jobbe i et par dager. Resultatet ble sådär.

Det som er moro med neurale nett er at de lærer. Ingen programmering nødvendig!. Vis frem data og så er det stokk og gulrot som sørger for læringa. Akkurat som med unger.

Det er dog klin umulig å vite hva nettet velger å ekstrahere av kunnskap, hvilket jo gjør ting litt vanskelig for byråkrater og lovgivere, som ønsker å få kontroll på tekniken. Eksempelvis mht GDPR, som er litt i vinden for tiden.

Jeg trodde for eksempel at nettet her hadde lært seg å kjenne igjen Harrison Ford, så jeg så ikke fram til to nye døgn med læring når jeg hadde lyst til å ta plassen til Ryan Gosling istedet.

No worries. Jeg gjenbrukte forrige modell og trente i 20 minutter for å kunne ta plassen til Ryan i en av scenene.

Tror ikke resultatet lurer noen, men det var en moro øvelse likevel. I.o.m at jeg har gått til innkjøp av fænci GPU, og nå også har hylla full av deep learning-litteratur, så tror jeg kanskje det ligger an til noen enkle maskinlæringsprosjekter i tiden fremover. Har allerede tafset litt på TensorFlow og har også lyst til å lære meg Keras.  Vi får se hvor det bærer :)