Time Expander: slideshow photograph 1
Time Expander: slideshow photograph 2
Time Expander: slideshow photograph 3
Time Expander: slideshow photograph 4
Time Expander: slideshow photograph 5

Blog

Making a brain – for recreational purposes. Step 3 (XP+1)

Etter å ha brynet meg på egen implementasjon av neurale nett, effektiv backprop, softmax, gradienter, cross-entropy og fandens oldemor i C++ i noen uker, så bestemte jeg meg for å igjen slippe Tensorflow ut av Ubuntu-buret sitt. Semantikken er relativt tight, så jeg håpet å få litt mer ut av det, nå som maskinlæringsvokabularet mitt har modnet litt – etter uker med “selvplaging”. Jeg prøvekjørte det litt mer avanserte MNIST-eksempelet i Tensorflow, der det benyttes convolutional nettverk. Dette kjørte i kanskje 10 minutter, før det resulterte i 99.26% treffsikkerhet ved klassifikasjon av siffer i testsettet (kun CPU).

Jeg sitter nå igjen med en mulighetsfølelse, som jeg kun har opplevd ved…

  • første eksponering for programmering i 1983,
  • første eksponering for internett i 1992
  • første eksponering for 3D-printere i 2011.

Jeg er faktisk litt satt ut. Ikke nødvendigvis av teorien, selv om backpropagation og gradient descent er konseptuelt vakkert. Ikke av alfabetsuppa, selv om den har gitt meg hodepine, samt resultert i ganske kraftig språkbruk her i kjelleren.

Man aner konturene av noe som er ekstremt kraftig. Ekstremt elegant. Og som i tillegg skalerer.

Min generasjon hadde Meccano og Lego. En generasjon senere, så er det innenfor mulighetsrommet til et gjennomsnittlig ressurssterkt barn å nå kunne komponere kognitive funksjoner til sin egen autonome 3D-printede dronesverm. Hvor kult er ikke det ?

Cabinet of Curiosities (Zen 3.0)

En miniatyr CNC er kjekt å ha, men for at den skal være anvendelig i et møblert hjem, så den bygges inn. Enter “Project Zen Enclosure”. Kabinettet har innebygget lys, er rimelig støvtett og har hendige magnetfester, som gjør det svært enkelt å komme til. Kabinettet vil neppe skjerme spesielt mange dB, men den vil forhindre arbeidsrommet fra å støves totalt ned, når fresen er i bruk.

Light

 

Magnet_Lock

(Magnetlås)

Zen

(Zen CNC)

Materialliste:

  • 2 stk LACK bord (IKEA).
  • 4 stk 3-5mm kabelkanal (Clas Ohlsson).
  • 4 stk 40x44cm, 4mm plater med plastglass (Biltema).
  • 8 små neodym-magneter (10x10x5mm’ish).
  • 3D-printede magnetfester i PLA.
  • Dobbeltsidig tape, for feste av magnetfester og håndtak til front.
  • LED-strip + Arduino (hvis man ønsker sci-fi lyseffekter i taket av kassa)

 

Ny serie med Spar7 erstatningskort.

Jeg har fått flere henvendelser enn vanlig mht tilgjengelighet på Spar7-kort, så jeg kommer til å produsere opp en håndfull av disse i løpet av sommeren. I fall noen ruger på en død Spar 7, som de vil blåse liv i, så er prisen pr. kort Kr. 2500 + frakt.

Spar 7 erstatningskort

Nye nisjeprodukter !

Knipsekasser.

Har du vært så uheldig at du har gått hen og impulshandlet en svindyr Ray knipsekasse, selv om det mangler deler i fronten ? Litt bekymret for at fruen skal bli sinna fordi halve feriepengebudsjettet gikk med til noe som ikke engang kan brukes ?

Frykt ikke ! Nok en gang kommer TimeExpander til unnsetning. Samtlige plastdeler er modellert og lastet opp på Shapeways. Man kan her handle den ene enkeltdelen man trenger, eller ett sett med en av hver type del. Enkeltdeler finner du her.

Vær obs på at den svarte plasten er matt. Man kan kjøpe en polert, hvit plast, men denne må isåfall spraylakkeres med akryl for å få riktig finish.

Siden vi naturlig ikke har hatt tilgang til orginale CAD-tegninger eller støpeformer, så er hver enkelt del målt og modellert fra bunnen av.

Flipperspill.

Litt redd for ramper ? Liker du derfor å skyte mot senter på Attack From Mars ? Har braketten for 3-targetbanken brukket ? Er Marco “out of stock” ?

Frykt ikke ! Vi har modellert delen, og Pop Bumper har hatt den i drift en god stund på vår egen AFM i kjelleren på Work-Work.

 

Making a brain – for recreational purposes. Step 2 (Level up!)

Makan til alfabetsuppe skal man lete lenge etter. Matematikere burde sporenstreks ta seg et kurs i hvordan man kommuniserer enkle konsepter til andre mennesker. Deler av maskinlæringslitteraturen er imho direkte menneskefiendtlig.

Jeg er nå nesten helt sikker på at jeg har implementert Stochastic Gradient Descent med Nesterov momentum og L2-regularization – riktig. Jeg er nesten også helt sikker på at jeg normaliserer input, bruker tanh-aktiveringsfunksjon og softmax på output – riktig. Beviset ligger likevel, som kjent, i puddingen. Evne til overfitting og korrekt klassifisering av et treningssett er en indikasjon på en viss grad av virk. Og for å kunne sjekke om man har en rimelig grad av virk, så trenger man da det som på fagspråket heter “data” :)

Et glitrende datasett, som det er moro å bryne seg på er MNIST.

MNIST er en database over håndskrevne siffer. Den består av et treningssett med 60000 siffer og et testsett på 10000 siffer. Hvert siffer er et bitmap på 28×28 pixels. Gitt at man ikke har featuredetektorer i forkant, så vil et enkelt nett for å lære seg å klassifisere disse, ha 784 inputnoder, et eller flere skjulte lag med noder og 10 noder i outputlaget. Ved å benytte softmax-algoritmen, så tvinger man output inn i en sannsynlighetsfordeling, hvilket er glitrende når man skal bygge et et neuralt nett, som skal klassifisere noe.

Utfordringen er å ikke trene nettet slik at det kun husker treningssettet , men på en slik måte at det er i stand til å lære å ekstrahere features fra treningsettet.

Det sparker rimelig greit unna, selv om koden sannsynligvis ikke er helt optimal mht hastighet (Jeg fokuserte i første omgang på egenopplæring + korrekt oppførsel + kode som ikke resulterte i hjerneblødning ved forsøk på å lese den dagen etter). På en relativt gammel i7, så klarer et {I:784, H:128, O:10}-nett typisk å lære seg å klassifisere 2000 siffer på 10-12 sekunder. Anser det som “innafor”, selv om det nepper er i TensorFlow-divisjonen mht ytelse.

Backpropagation er i essens et sett av matrise-/vektoroperasjoner og treningen er et høyst dataparallelliserbart problem. Hvorfor nøye seg med kun en kjerne ? Neste trinn blir derfor å gå litt mer i dybden på C++AMP for å kunne trene større nett på GPU.

Det klør også litt mht å skrape i overflata på andre typer av nettverk, som eksempelvis RNN for tidsserieprediksjon, convolutional nettverk mtp bildegjenkjenning, deep belief-nettverk, samt visualisering av hva som skjer under trening.

PS. Jeg vet det finnes glitrende rammeverk der ute, men man lærer mye mer av å implementere ting fra first principles.

Real Retrogaming

Hvis du vokste opp på 80-tallet, så husker du sikkert arkadene. Spillehallene, der du for tre kroner kunne forsvare jorda mot angrep fra rommet, redde prinsessen fra en illsint gorilla, leke ubåtkaptein, eller tre inn i en virtuell fantasiverden som slo knockout på absolutt alt annet du kunne oppleve av spill eller underholdning. Vi hadde svart hvitt TV. Internett fantes ikke. Vi hadde ikke mobiltelefon eller nettbrett. Vi hadde en kanal på TV’en og når du var hjemme fra skolen fordi du var syk, så var den eneste tilgjengelige underholdningen gamle tegneserier, som du allerede kunne utenat eller fiskerimeldinga på NRK (som også var den eneste radiokanalen)

Det er ikke noen hemmelighet at arkadespillene var laget for at å tjene mest mulig penger. De var derfor designet for å bli progressivt vanskeligere, jo lenger ut i spillet du kom. Du kunne ikke vinne. En kanskje utilsiktet sideeffekt av dette var at de derfor også tilbød et unikt gameplay. Et gameplay, som nå i stor grad har forsvunnet fra nyere generasjoner av spill.

I min tid, så kostet opplevelsen tre kroner pr spill, og det var ikke ofte jeg kom forbi de første par brettene på hverken Space Invaders eller Pac Man. Ukelønna forsvant raskt, men jeg kom tilbake igjen og igjen.

Etter en tid kom konsollspillene og markedet for arkadespill forsvant. Folk kunne jo spille bedre spill hjemme i sin egen stue. Nye spillsjangere kom til og spillene og gameplay endret seg. Med unntak av de åpne online spillverdnene som eksempelvis WoW og Eve Online, så tror jeg 100% av spillene der ute nå kan “rundes”. Man fullfører spillet og blir ferdig med det.

Spillene du ikke kunne vinne forsvant. Og jeg savner dem enormt.

Arkadespillene finnes fremdeles. Entusiaster har dumpet ROM-sett, som er tilgjengelig online, i skyggene av internett, og du finner også emulatorer for dem der ute, slik at du kan spille dem på nyere hardwareplattformer. Det er ikke helt lovlig, men du kan spille dem hvis du ønsker. Spillopplevelsen er likevel ikke den samme. Emuleringen gir latency, frameskips og frame tear. Du kan simulere scanlinjer og CRT artefakter, men det blir ikke det samme.

Spillene ble laget for arkademonitorer, som i praksis er det samme som en gammeldags TV, uten tuner. Synkfrekvenser og oppløsning varierte fra spill til spill.

Et av vårens prosjekter er å bringe noen av de gamle arkadespillene tilbake i kjelleren på Work-Work i Trondheim i løpet av våren og sommeren. Vi kan ikke love orginale kabinetter, men vi garanterer orginal innmat, CRT-skjerm, samt joysticks og knapper med med mikrobrytere, som gir den riktige taktile feedbacken. Kanskje vi tar med noe Maker Faire også. Vi er litt prisgitt antall timer i døgnet, men vi er nå snart der at det kun er møbelsnekring og kabeltrekking som står igjen. Det meste av sourcing er unnagjort.

Pop Bumper AS har begynt å importere JAMMA-kort i spekteret Moon Patrol til Dodonpachi Daioujou. Vi har begynt å hamstre gamle TV’er, som skal bygges om til arkademonitorer. Vi har designet CAD-modeller for arkadekabinett og vi har bestilt absolutt alt av knapper, joysticks, power supplies, JAMMA harnesses, T-molding og fandens oldemor. Kabinettene skal freses ut på CNC-maskina på Fix makerspace(i kjelleren på DIGS). Interesserte kan følge med på Pop Bumper sin Facebook -side.

Moon Patrol - PCB

Moon Patrol - a

Dodonpachi Daioujou - PCB

Dodonpachi Daioujou - a

Mobile Beer Platform – mk I

Sånn går det når man glemmer å slå av 3D-printeren sin i løpet av påskeuka. Før man vet ordet av det, så har robotene i kjelleren formert seg. Hils på skjelettet til MBP – mk I. Foreløpig totalt utestet. What could possibly go wrong…?

Mobile Beer Platform

Mobile Beer Platform

Charge indicator

Charge indicator

Motor cowling

Motor cowling

Power button

Power button

Konformitet som innovasjonsdriver ?

Norway Makers ble i 2015 tildelt 3.250.000 kroner til etablering av offentlig tilgjengelige makerspaces ved landets regionale vitensenter. Disse pengene ble gitt av Sparebankstiftelsen DNB.Dette gjør vitensentrene til de best finansierte makerspacene i norge.

I forrige uke informerte Kunnskapsdepartementet om at vitensenteret i Trondheim er ett av landets vitensentere, som er plukket ut til å etablere et talentsenter i realfag.

“Regjeringen ønsker å skape en positiv realfagskultur, der det er lov å være god. Elever med spesielt talent for realfag kan fort bli faglig ensomme på egen skole”

Arnfinn Stendahl Rokne, direktør ved Vitensenteret i Trondheim, responderte på følgende måte:

“Vi har kretslag både innen ski og fotball. Nå skal vi lage et kretslag i realfag.”

Ifølge Adresseavisa, så synes ikke Rokne det er problematisk at de skal lage et tilbud kun for spesielt flinke elever.

“Vi diskuterer ikke om vi skal dyrke håndballtalenter og skitalenter, men når det handler om faglighet, så problematiserer vi det. Men dette handler om det samme. Det er viktig å løfte de svakeste, og det er viktig at bredden er med. Men det blir lett en holdning at de flinkeste greier seg, de får det til uansett.”

Rokne ser også for seg at oppfinnerverkstedet (makerspacet, som de ble tildelt penger til) er noe de kan bruke når de nå blir et av fire nasjonale talentsenter for realfag.

Et makerspace fasiliterer eksperimentell lek, gjerne via teknologi. Barn og voksne kan på et makerspace lære gjennom lek, gjennom å prøve og gjennom å feile. Man deler kunnskap fritt og åpent. Man opplever skaperglede og mestring.

Dale Dougherty, grunnlegger av Make Magazine og Maker Faire, illustrerer dette i “The Maker Mindset”:

“The biggest challenge and the biggest opportunity for the Maker Movement is to transform education. Many understand the difference between the pain of education and the pleasure of real learning. Unfortunately, they are forced to seek opportunities outside of school to express themselves and to demonstrate what they can do.
Formal education has become such a serious business, defined as success at abstract thinking and high-stakes testing, that there is no time and no context for play. If play is what students do utside school, then that is where the real learning will take place and that is where innovation and creativity will be found.
The rigid academic system is short-changing all students, even though an elite few seem to do well by academic standards. However, there is increasing skepticism that even those who succeed academically are not the kind of creative, innovative thinkers and doers that we need.”

Kunnskapsdepartementets, Torbjørn Røe Isaksens og Vitensenterets tanker og ideer står som virkemidler i grell kontrast til de virkemidlene som er nødvendige for å oppnå de det ønsker. Det vitner om kunnskapsløshet, tabloid politisk motivasjon, samt en urovekkende mangel på innsikt i sitt eget domene.

Som maker og som pappa til to jenter i skolealder, så blir jeg direkte trist.

Jeg har ikke tro på at dere er i stand til å forvalte ressursene dere disponerer. Jeg har ikke tro på at dere lykkes.

Jeg vet at hverken jeg eller noen av barna mine hadde kommet til å få innpass i elite-systemet, som dere nå etablerer. Ikke fordi vi ikke er flinke, men fordi dere bruker evne til systemtilpasning, som mål for evne til læring og videre utvikling.

Heldigvis, så trenger vi dere ikke.

Det er andre makerspaces og miljøer i byen. Miljøer, der skaperglede, kunnskapsdeling, læring og mestring står i fokus. Miljøer som velger å være åpne og inkluderende. Vi har Hackheim og vi har Fix. Vi har Trondheim Makers, en nonprofit medlemsforening, som arrangerer Trondheim Maker Faire, låner ut gratis utstyr til skoler og jobber med opplæring av lærere.

Det er problematisk at de dytter et elitesenteret inn på et makerspace. Man må gjerne etablere enn topprealfagslinje, men ikke press det inn i et makerspace som skal være åpent for alle.

1) “Flinke elever skal få talentsenter” (paywall)
2) “Vil samle mattetalentene” (paywall)
3) “The Maker Mindset”
4) “Makerspaces på vitensentrene”

 

Making a brain – for recreational purposes. Step 1

Neurale nett har blitt poppis igjen. Sist jeg lekte med slike, så forsøkte jeg å trene opp nett, implementert i Turbo C (2 disketter…)  på en 12 MHz IBM AT. Det var ikke spesielt moro. Sånn i etterpåklokskapens lys, så er det vel heller ikke helt utelukket at jeg kan ha blingsa litt på på et par av formlene.

Jeg nøyde meg derfor med å lese om maskinlæring og AI istedet. Jeg leste Neuromancer, Burning Chrome og Mona Lisa Overdrive med det ene øyet og alt for vanskelige bøker og papers med det andre. Jeg skal ærlig innrømme at jeg kanskje fikk mest ut av William Gibson sine romaner på den tiden, men det var likevel moro å skrape litt i overflata på algoritmene, slik at man kunne bli ufordragelig i baren i Bodegaen, når folk begynte å bli filosofiske, etter et par øl for mye.

Det var på starten av 90-tallet et ganske markant gap mellom science fiction-AI og AI i den virkelige verden. Selv om neurale nett var den nærmeste analogen man hadde til neuroner og synapser i biologiske systemer, så endte det gjerne opp i rene teoretiske øvelser. Vi manglet nok “oomph” under panseret på datamaskinene våre, til at vi kunne trene opp litt større nett, som gjorde særlig spennende saker . (Trening av nett er tungt, men kjøring av et ferdig trent nett, koker ned til et lite antall matriseoperasjoner, som man kan kjøre på en liten mikrokontroller med flyttallsstøtte, uten videre problem).

I dag, så er det litt anderledes. Har du handlet deg en datamaskin for å kunne “surfe på nett”, “bruke nettbank” eller “levere lottokupong”, så har du etter all sannsynlighet nok prosesseringskraft tilgjengelig for å kunne leke deg med enkel AI uten at maskina blir svett. Gapet er i ferd med å lukkes og jeg har en liten følelse av at det nå, gitt ressursene til eksempelvis Google, nå begynner å bli “sping tinglingly”smalt. Litt usikker på om våre venner, politikerne, er helt forberedt på scenariene vi nå vil få se, der den selvkjørende bilen din, eksempelvis velger å drepe deg, ved å kjøre i grøfta, fremfor å kjøre ned fotgjengeren i gangfeltet, eller når den første kunstige intelligensen blir installert i droner for å ta kill-beslutninger, slik at ikke soldatene skal få PTSD etter litt for mange timer foran skjermen.

Det eneste en AI forsøker å gjøre er å minimalisere kostfunksjonen sin – en funksjon spesifisert av mennesker – forhåpentligvis korrekt, og forhåpentligvis en funksjon, som ikke har utilsiktede sideeffekter.

Genetiske algoritmer, fuzzy logic og neurale nett var all the rage tidlig på 90-tallet, men så forsvant de under radaren min. Inntil i år. Fire ting skjedde (omtrent i denne rekkefølgen) :

  1. En kompis (Hei, Ståle !) sendte meg en link til “The Unreasonable Effectiveness of Recurrent Neural Networks”.
  2. “Deep Dream”-videoer og bilder begynte å poppe opp her og der i newsfeeden min.
  3. Jeg traff en freelance-koder i Roma, som jobbet med AI. Jeg beynttet anledningen til å spørre litt om det jeg trodde jeg hadde lært om NN på 90-tallet fremdeles var good shit.
  4. Google opensourcet TensorFlow.

Inspired, I became…

Det var på tide med et lite litteraturstudie igjen. Dette er vel strengt tatt pensum for kidsa på Gløshaugen, men siden jeg er mer i “halvstudert røver” / “old fart”-kategorien, så må jeg stadig vekk gjøre slike øvelser for å henge med.

Valget sto mellom å bruke tid på tensorflow, eller forsøke å plugge kunnskapshullene som oppsto når jeg prioriterte William Gibson sine romaner fremfor å forsøke forstå matematikken bak minimalisering av kost-funksjonen i et neuralt nett via backpropagation og deltaregelen.

Siden jeg er selværklært maker (begynner så smått å bli et litt utslitt begrep, men), så ønsket jeg også en implementasjon, som var såpass lettbeint at den kunne trenes på en PC (eks med styrings-/sensortelemetri-data fra en liten robot) og så lett kunne kjøre det trente nettet på svært billig embedded hardware.

Jeg fyrte så opp C++-kompilatoren og skred til verket. Første forsøk bar galt av sted i.o.m. at jeg lot OO-nissen i meg få slippe til med helt feil abstraksjoner (Jeg er et barn av OO-generasjonen, men kjenner litt på en dragning mot funksjonell programmering). Jeg modellerte min forståelse av et NN, Dvs “nettverk”, “lag”, “inputlag”, “skjult lag”, “outputlag” etc. Koden eksploderte og ting ble ikke spesielt pent.

Det gikk 2-3 kvelder før jeg innså at de eneste abstraksjonene jeg trengte var “nettverk”, “treningssett”, “matrise” og “vektor”.  Dette ga en 1:1 mapping med begrepsverdenen i litteraturen og algoritmene. Koden ble da tight. Vi snakker 3-400 linjer (inludert tracing / graphvizoutput) for implementasjon av klasser som lar deg spesifisere nettverk med vilkårlig antall lag og vilkårlig antall noder i hvert lag. Eksempelvis så vil følgende deklarasjon resultere i et nettverk med 3 lag, der man har 5 inputnoder, 5 skjulte noder og ett outputnode:

   Network n({5, 5, 1});

Ønsker man en visuell representasjon av nettverket, så kan man generere en graf-representasjon for GraphViz:

   n.ExportAsDigraph("d:\\MyNetwork.gv");

Formatet for treningssettene er en liste med kommaseparerte inputverdier -> liste med kommaseparerte output. Eksempelvis, så vil treningssettet for sannhetstabellen for XOR, se slik ut:

   # XOR
   1,1 -> 0
   1,0 -> 1
   0,1 -> 1
   0,0 -> 0

Kode for trening av nettverket vil kunne se noenlunde slik ut:

   TrainingSet set("MySet.training");
   int iter = n.Train(set, learningrate, maxError, maxIterations);

Jeg brukte enkle nettverk for å debugge funksjonene for backpropagation-algoritmen. Treningssettene under debuggingsesjoner var typisk sannhetstabeller for AND, OR og XOR.

Men,…

En ting er enkle mappinger mellom input og output. Det som ga meg TOTAL BAKOVERSVEIS var når jeg forsøkte meg på et treningssett, som i praksis krevde at nettet var translasjonsinvariant. Jeg bestemte meg for å sjekke om koden ville klare å identifisere bitpar i et ringbuffer. Eksempelvis klassifisere 11000, 01100, 00110, 00011 og 10001, som samme greie, men forkaste alle andre bitmønster. Jeg bestemte meg for å teste med et 5:5:1 nett:

network2

Og dette er trace-output fra nettet…

1 1 0 0 0 -> 0.98942
0 1 1 0 0 -> 0.955088
0 0 1 1 0 -> 0.994225
0 0 0 1 1 -> 0.956921
1 0 0 0 1 -> 0.946448
0 0 0 0 0 -> 8.01082e-007
1 1 1 0 0 -> 0.000139072
0 1 1 1 0 -> 0.000123884
0 0 1 1 1 -> 0.00241042
1 0 0 1 1 -> 0.000115517
1 1 0 0 1 -> 0.00316957
0 0 0 0 0 -> 8.01082e-007
1 0 0 0 0 -> 0.0152408
0 1 0 0 0 -> 0.000225992
0 0 1 0 0 -> 0.000161386
0 0 0 1 0 -> 0.0165893
0 0 0 0 1 -> 0.0240119
1 1 1 1 1 -> 0.00393661
1 1 1 1 0 -> 0.000946888
0 1 1 1 1 -> 4.03198e-005
1 0 1 1 1 -> 0.00302191
1 1 0 1 1 -> 0.00172643
1 1 1 0 1 -> 5.37666e-005
1 1 1 1 0 -> 0.000946888
Training result : PASSED in 227 iterations.
Layering structure : 5 5 1

matrix[i, j]
-7.381501e-001 4.910103e-001 2.348347e+000 5.589301e-001 1.393025e-001
6.232929e+000 -3.010492e+000 -3.575540e+000 6.308999e+000 -2.263603e+000
7.602698e+000 -4.410647e+000 -4.660858e+000 7.579302e+000 -3.254401e+000
2.161218e-001 5.300884e+000 -3.041684e-001 -8.590031e+000 2.228310e+000
-8.501116e+000 2.924318e-002 4.881199e+000 5.905061e-002 2.334400e+000

matrix[k, l]
3.230551e+000 8.396336e+000 1.152779e+001 1.566610e+001 1.500300e+001

Tankene går til åpningsstrofene i “For What it’s worth” (Buffalo Springfield). “There’s something happening here. What it is ain’t exactly clear…”

Next up: “Andre greier jeg ikke lærte på skolen . D.v.s RNN, Markovmodeller & annen crazy shit vi trenger å implementere Skynet”

Here We Go Again – Hacking, Fundraising og Politikerkjeft

3D-printere var inntil ganske få år siden forbeholdt proffmarkedet og var svært kostbare. Teknologien er nå mainstream og kan handles over disk, til en relativt rimelig penge, på linje med annet hobbyverktøy. Det er fremdeles et ganske stort gap mellom forventninger og ytelse/brukervennlighet, men det vil etterhvert lukkes. Konkurransen mellom leverandørene er nå så hard, og marginene så lave at de gjenstående differensierende faktorene mellom leverandørene er driftsstabilitet og brukervennlighet. Ikkeno stress. Markedskreftene fikser resten. Vi er over kneika.

CNC-maskiner har vært på markedet mye lengere enn 3D-printere. Det samme har laserkuttere. Disse tre teknologiene, sammen med en elektronikklab danner fundamentet i et hvert makerspace / FabLab sin digitale fabrikasjonevne.

Laserkuttere er mekanisk enklere enn 3D-printere. Til tross for dette, så er de fremdeles svært dyre. Du kan handle en “spennende” billigversjon fra Kina, eller gå for en litt mer anerkjent leverandør, der du slipper utfordringer med sånt som “kinesisk printerdriver, som kun støtter utdødde operativsystem”. Du har da enda ikke handlet kjøleutstyr, kompressor etc, men har allerede lagt ut minimum 40K. Går du for merkevare, så har du lagt ut 80K+. Jeg mistenker at leverandører av laserkuttere opererer med betydelig større marginer enn leverandører av 3D-printere og CNC-maskiner.

Hver fiber i kroppen skriker nå “IKKE GJØR DETTE HJEMME!”, men jeg gjorde likevel en liten sourcing-øvelse mht hva det ville koste å skru sammen en laserkutter fra scratch. XY-steget og kabinett er ikke mer komplekst å bygge enn en litt stor 3D-printer. Laser-rør, optikk og power er lett tilgjengelige komponenter.

Jeg har nå regnet litt, og har vanskelig med å forstå hvordan dette skal bli dyrere å sette sammen enn en GD III 3D-printer.

Øvelsen er ikke helt ufarlig, så sikkerhet m.h.t. både konstruksjon, test og drift, er prioritet nummer 1. Jeg har de siste dagene diskutert litt med co-konspiratør Bjørn Borud, og jeg har vel en viss følelse av at dette er noe det burde være mulig å få til i god tid før Maker Faire 2016.

I parallell med dette, så går det nå en intern fundraiser i Hackheim for å finansiere en kommersiell laserkutter. Vi er litt over halvveis til målet, men er avhengig av donasjoner fra medlemmer, og gjerne også eksterne sponsorer for å komme helt i mål. Har du lyst og mulighet til å støtte en god sak, så ta kontakt med noen i kjernen i Hackheim – her. Hackheim er en stiftelse og en ideell organisasjon. Donasjoner gjøres enkelt i moderne valuta, som Bitcoin, Litecoin eller gjennom mer tradisjonelle betalingsmekanismer som PayPal. Er du skikkelig old school, så tilbyr de også mulighet for å overføre direkte til bankkonto :)

Er du nysgjerrig på hva en FabLab innebærer, så kan du ta en titt på MIT sin handleliste for å få FabLab 2.0-status. Ta også gjerne et litt kritisk blikk på din kommune sitt kulturbudsjett for 2016, ring deretter din representant og spør om offentlig utsmykning og fotball er rasjonelle områder å bruke penger på nå som oljeprisen er under 50 dollar fatet. Resesjonen er over oss og tsunamien av bedriftshavarier, som følger som en konsekvens av dette, har ikke engang truffet land enda.  Politikerne står på stranda og peker istedet på ting de forstår. Å gjøre det litt lettere for generasjonen som kommer etter oss mht å faktisk realisere politiske buzzord som “Innovasjon” også faktisk adressere, eller til og med besvare spørsmålet; “hva fan skal vi gjøre etter oljen ?!?” – burde ikke være for mye forlangt. Istedet, så drysser de penger over folk som leker med ball og henger opp nye bilder på kontorene.

HeNe-rør fra "hologramperioden" min. CO2-røret blir _noe_ større ;)

HeNe-rør fra “hologramperioden” min. CO2-røret blir _noe_ større ;)