Etter å ha brynet meg på egen implementasjon av neurale nett, effektiv backprop, softmax, gradienter, cross-entropy og fandens oldemor i C++ i noen uker, så bestemte jeg meg for å igjen slippe Tensorflow ut av Ubuntu-buret sitt. Semantikken er relativt tight, så jeg håpet å få litt mer ut av det, nå som maskinlæringsvokabularet mitt har modnet litt – etter uker med “selvplaging”. Jeg prøvekjørte det litt mer avanserte MNIST-eksempelet i Tensorflow, der det benyttes convolutional nettverk. Dette kjørte i kanskje 10 minutter, før det resulterte i 99.26% treffsikkerhet ved klassifikasjon av siffer i testsettet (kun CPU).

Jeg sitter nå igjen med en mulighetsfølelse, som jeg kun har opplevd ved…

  • første eksponering for programmering i 1983,
  • første eksponering for internett i 1992
  • første eksponering for 3D-printere i 2011.

Jeg er faktisk litt satt ut. Ikke nødvendigvis av teorien, selv om backpropagation og gradient descent er konseptuelt vakkert. Ikke av alfabetsuppa, selv om den har gitt meg hodepine, samt resultert i ganske kraftig språkbruk her i kjelleren.

Man aner konturene av noe som er ekstremt kraftig. Ekstremt elegant. Og som i tillegg skalerer.

Min generasjon hadde Meccano og Lego. En generasjon senere, så er det innenfor mulighetsrommet til et gjennomsnittlig ressurssterkt barn å nå kunne komponere kognitive funksjoner til sin egen autonome 3D-printede dronesverm. Hvor kult er ikke det ?