Í stað taugafrumna (neurons) eru notaðar hnútar eða einingar, sem taka við tölulegum inntökum, vega þau með ákveðnum stuðlum (sem heita þyngdir, weights), leggja saman og keyra útkomuna í gegnum einfalda stærðfræðilega aðgerð (t.d. sigmoid eða ReLU).
Þetta gerist í lögum:
- Inntakslag: fær gögnin, til dæmis pixla úr mynd eða orð úr setningu.
- Falinn lög (hidden layers): vinna úr mynsturunum með því að breyta og sameina upplýsingarnar. Þarna gerist „töfrarnir“, því tauganetið lærir að greina mynstrin sjálft.
- Úttakslag: gefur svarið – t.d. „þetta er hundur, ekki köttur“ eða næsta orð í setningu.
Lærdómurinn fer þannig fram að netið spáir fyrst, síðan er spáin borin saman við rétta svarið, og villan (mismunurinn) er notuð til að laga þyngdirnar smám saman. Þetta kallast bakvörpun (backpropagation) og er lykillinn að því að tauganet geti lært.
Í nútíma gervigreind er talað um djúp tauganet (deep neural networks) sem eru með mörg lög, og sérstaklega djúp nám (deep learning). Þessi kerfi eru grunnurinn að því sem knýr áfram ChatGPT, sjálfkeyrandi bíla, raddgreiningu, myndgreiningu og ótrúlegustu forritum.
Skemmtilegt er að vita að þessi hugmynd kemur úr 1940–50, en það tók áratugi þar til tölvur urðu nægilega öflugar og gögn nægilega mikið til að hún virkaði vel. Nú eru tauganet orðin eins konar „rafmagnsnets“ nýja tímans – þau liggja að baki flestum snjallforritum sem við notum.
Ef við förum eitt skref lengra: tauganet eru ekki lengur bara einsleitar línur af lögum. Það eru sérstakar útgáfur:
- Samantektarnet (convolutional neural networks, CNNs) fyrir myndir.
- Endurkastnet (recurrent neural networks, RNNs) og transformers fyrir mál og röð gagna.
- Generative adversarial networks (GANs) sem keppa sín á milli til að búa til ný gögn (t.d. myndir sem líta út eins og ljósmyndir).
Þannig eru tauganet grunnþáttur í „gervigreindarsúpunni“ sem heldur öllu saman.