Silberbauer & Blomseth

98: I menneskeform – robot(r)evolution

Klaus Silberbauer & Thomas Blomseth Season 8 Episode 98

I høj grad hjulpet på vej af fremskridtene inden for generativ AI og de store sprogmodeller, LLM’erne, begynder det at rykke inden for robotter i menneskeform. Den gamle drøm om at lave robotter i vores eget billede med hud, hår og det hele er i gang med at blive overskygget af muligheden for at lave praktiske, menneskeformede robotter, der kan indsættes i alt fra industri til private hjem og overtage opgaver med fysisk manipulation af objekter. Skal der sættes assorterede varer på plads i køkkenet efter indkøb? Eller fødes metaldele ind i en presse på en bilfabrik? Begge dele blev demonstreret for nylig — og det vel og mærke uden kompleks og dyr programmering. Er vi klar til en robot(r)evolution?

****

Nu også på YouTube — hvis du bedst kan lide din podcast med uden video. https://youtube.com/@silberblom

****

Hvem betaler for Silberbauer & Blomseth?

Det gør vi selv. Vores indhold er på ingen måde egnet til sponsorer eller reklamer for proteinpulver, VPN-forbindelse eller e-bøger. Så hosting, udstyr og alt det der er på egen regning.

Det eneste vi beder om til gengæld (hvis du altså kan lide det, vi laver) er at du smider stjerner, og måske oven i købet en lille anbefaling, efter os på Apple Podcast. Det betyder alverden. Vi higer jo allesammen efter anerkendelse i en eller anden form.

Husk at følge os på Bluesky (@silberblom)

Linktree

Thomas:

Hej Klaus.

Klaus:

Hej Thomas.

Thomas:

Så er det så min tur her til at vælge emne. Ja. Og jeg har virkelig glædet mig. Og det er et emne, som det har gået og bobblet et stykke tid. Og så er der faktisk sket nogle ting her bare lige inden for de sidste par dage, hvor det er blevet endnu mere aktuelt, eller der har været lidt drama. Nu skal jeg selvfølgelig afsløre, hvad det er

Klaus:

Vi kan også prøve at starte ud helt hemmeligt, og så ser vi, om jeg kan gætte det.

Thomas:

Nu fik jeg jo så sagt det, men det er så humanoidrobotter.

Klaus:

Ja tak.

Thomas:

Eller som vi måske skulle kalde dem på dansk, altså menneskelige robotter eller robotter i menneskeform. Og jeg tror faktisk, det er lidt interessant at vende tilbage til en distinktion mellem de to ting. Men bare lige for at sætte den op i forhold til sådan et drama, så er der jo faktisk kommet en hel del spillere inden for det her med at prøve at lave robotter, der i hvert fald har form som mennesker og kan indtræde i menneskefunktioner, menneskeroller og udføre ting. Og det, der har været drama, det er et af de firmaer, der virkelig... Hvor der rører på sig det, der hedder Figure AI. Og der har været sådan lidt beskyldninger om, at de har overdrevet, hvor meget de virkelig kunne. Og de har en eller anden samarbejde med BMW, hvor det er lidt uklart, hvad det egentlig omfatter. Og det har man så blevet kritiseret for. Og bare for... Og indikere hvor mange penge, der er i spil her, så rejste Figuer Air, det er så en amerikansk firma, de rejste en runde i november sidste år, hvor de mente, at de var 2,6 milliarder dollars værd. Men nu vil de så til at rejse en ny runde med 1,5 milliarder dollars i kapital til en vurdering på 39,5 milliarder. Så man stiger lige fra under 3 milliarder i slutningen af sidste år til næsten 40 milliarder nu. Så der er noget, der rører på sig.

Klaus:

Jeg tror, jeg har set en video med de der Figure AI. Jeg kan ikke huske, om det var det firma, men jeg tror det. Noget med to robotter, der skal lægge ting på plads i et køleskab. Er det ikke dem?

Thomas:

Det er vist dem, ja.

Klaus:

Det er måneder siden.

Thomas:

Ja, og så er der den med en robot, der arbejder i en BMW-fabrik. Ja, præcis. Og lægger dele på plads. Ja, præcis. Så det har jeg kørt lidt der med, hvad kan de virkelig? Har de overhypet? Det endte så simpelthen med i går, at direktøren Brad Adcock, han lagde en video på i hvert fald Twitter, med en team, hvor en af deres robotter... angivelig en ikke-redigeret video, hvor en af vores robotter står i et logistikcenter i en time, og tager bløde pakker, som vi godt kan lide dem, og vender dem rundt, så når streghuden vender nedad, og så også en gang imellem, så lige glatter dem ud, så det ligger paner på transportbånd. Og det er jo simpelthen for at vise, vi har robotter kørende, i hvert fald i test, i den virkelige verden, i et logistikcenter, og de kan stå og køre, autonom i en time.

Klaus:

Det lidt overkill at bruge en humanoid robot til at vende en pakke. Jeg tænker, det kunne man nok. Det har posten ikke haft sådan nogle maskiner i lang tid, der flipper en pakke rundt og lige vurderer, hvor stor den er og sådan noget, ud fra et

Thomas:

scan. Jo, og det er så faktisk noget af det, jeg synes, vi skal diskutere i dag. Men inden vi gør det, kan vi gå tilbage til lige det med terminologien. Fordi Hvis vi bare direkte oversætter for en, så siger vi humanoidrobotter. Men hvad betød det i virkeligheden? Og der tror jeg, at på dansk, der kunne måske skille med en menneskelignende, og det har vi jo snakket om tidligere i en episode for nogle år siden, hvor man virkelig prøver at få robotter til at ligne os mennesker. Altså ned til, at man prøver at eftergøre ansigtsbevægelser og hud osv. Og så kom ofte i det, der hedder uncanny valley. Altså, man får bygget noget, som er menneskeligt, men ikke tilstrækkeligt til, at vi tror på det. Og så får vi den der fornemmelse af et eller andet, der er i gang med at prøve at snyde os. Og så får vi den der fornemmelse af afsky, nærmest, overfor det. Fordi det er forklappet, nærmest. Og det har jo nogen prøvet på i årtier. Og på en eller anden måde, så tror jeg faktisk, at den er lidt på vej ud. Fordi det, der er meget mindst interessant, det er det, der er ved at ske nu, og det er dem, som er robotter i menneskeform, som man måske kalder dem på dansk menneskeformede robotter. Og de er sådan set ikke lavet nødvendigt til... Altså med arme og ben, fingre... Arme og ben, ja. Som man kan sige, det de kan, det er, at de kan indtræde i situationer i den fysiske verden, hvor et menneske kunne agere. Men de ligner os ikke med hud og hår. Og det er jo nogen, som er... Hvis det kan lykkes at lave dem, så de er driftssikre i stor nok talle, så kan de jo virkelig ændre på, hvordan vi gør fysiske ting. Og det vil jo virkelig også være et nærmest paradigmeskifte i forhold til, hvad den digitale verden ligesom er i stand til at influere. For lige pludselig, så vi har lavet en masse interessante ting i den digitale verden, hvor vi er blevet rundt på 0'er og 1'er, og vi har udviklet nye medier, og især også med de store sprogmodeller, der skal med AI, det er jo super interessant, hvad der sker inde i de der digitale medier og digitale platformer og protokoller, som er skabt der. Men hvis vi får lavet nogle robotter, som er generelle i den forstand, at de kan indtræde i menneskeroller, så begynder den verden jo at kunne få, det man kan sige, den kan aktuere i den fysiske verden. Og det er jo langt mere interessant end at have kan man sige, robotter, der prøver at efterligne os og prøver at ligne os med hød over. Det er virkelig ikke så interessant eller brugbart som det andet. Hvis det her kan løse... Det kommer selvfølgelig an på, robotterne skal kunne. Altså, hvis vi snakker om plejerobotter for at imødekomme den her demografiske ændring, som vi jo talte om i et nyligt afsnit, jamen, så giver det måske mening, at man har en robot, der kan emulere følelser. Det kan godt være, at det bliver rimelig uncanny, men måske er det også vigtigt, at... En ældre person kan se, at en robot er respondert på det, du siger, eller lyttende, eller sådan noget. Så det er sådan set med på. Men det kan man jo måske også gøre på andre måder, end hundredvis af aktuatorer under en latex hud, som jo nok i lang tid ikke vil lykkes, og så gør særligt lækkert, før det bliver opfundet noget helt i materielle teknologi måske. Der kan man måske opnå de samme ting med simplere redskaber eller en skærm. Men det her med at sætte... humanøde, menneskelignende robotter ind, er jo også det, Elon Musk fortaler for, at hvis du har et produktionsanlæg, og tusinder af produktionsanlæg, en verden, der er skabt til mennesker med dørhøjde til en vis højde, og håndtag på ting, der skal bæres, er det så nemmest at lave robotter, der passer ind i den verden, eller er det nemmest at lave hele verden om, så det passer ind i mere klassiske industrirobotter? Vil industrirobot og være mere farlige overfor andre mennesker, fordi vi kan ligesom ikke intuitivt forestille os, hvordan de bevæger sig. En menneskelig robot, du vil have en ret god idé om, hvilken hastighed går de med, hvad kan de klare, hvor går de hen, og derfor kan du måske nemmere navigere dem i et produktionsmiljø, tænker jeg. Fordi jeg har også tænkt tanken, hvorfor bruger jeg den her Det er skide besværligt at få dem til at gå og holde balancen. Hvorfor ikke bare sætte hjul på dem? Men jeg kan godt se, at det er jo geming at hen ad vejen lave deres kroppe, hvis vi kan kalde dem det, et eller andet sted som vores. Fordi vi har nemmere ved at afkode dem og arbejde sammen med dem i det samme miljø. Ja, så er der... I det miljø, vi har opbygget igennem årtusinde, må jeg sige, i vores civilisationer, det har bare skabt problemer omkring os. Så det er det med, at man kan lave plug-and-play nærmest med dem rent fysisk. Og for at gå tilbage til det, du spurgte om ikke PostNord havde maskiner, der kunne vende pakker rundt. Jamen, det har man jo haft. Men de er jo specialbygget til netop det formål. Hvorimod det her, det vil være en generel kapabilitet at Et eksempel for den digitale verden kunne være forskellen mellem en lommeregner, og så da vi endelig fik PC'erne eller EM-computeren, som var generelle, som du kunne programmere til at bruge til forskellige ting. Du kunne både lave regnark, du kunne lave tekstbehandling osv., videoredigering, alle mulige ting på den her mere generaliserede computer. Og så kan man sige, at hvis du havde en Turing-komplet lommeregner, så ville du også i princippet kunne lave et andet ting. Men det falder jo flat, det argument, fordi i praksis kunne det jo ikke lade sig gøre. Og der kan man sige, at måske det er der, vi er ved at nå her, hvor der har været en masse ting i industrien, hvor det kunne egentlig være meget fedt at få det automatiseret. Det er meget ensidigt gentaget arbejde, som folk får arbejdsskade af over lang tid og sådan noget. Men at bygge specifikke maskiner til at udføre de opgaver har været for svært og måske også for dyrt. Så der er ligesom nogle tærsker, der bliver sænket ved det her. Og det er også det, der er super interessant. Nu brægte du så Elon Musk og så Tesla på banen. Deres projekt hedder Optimus. Selvom Elon har distraheret en masse helt skøre ting, så virker det til, at der er stadigvæk en overensstrategi, som måske i virkeligheden siger, at Tesla er et bilfirma nu, men der er faktisk et endnu større marked, som hedder, at hvis man kan lave robotter, så tæller vi ikke i millioner af stykker, så tæller vi måske i milliarder. Sådan at vi kunne ende i en situation, hvor der måske er flere af de her menneskeformede robotter på kloden, end der faktisk er mennesker. Fordi der er så meget... Jeg kan ikke sige, at jeg kan forvale mig det. Nej, overhovedet

Klaus:

Specielt ikke, når de så kan være under kontrol af en galoperende ketaminfjultosse, der så har sin egen private robot her. Pissegodt.

Thomas:

Og det rejser jo sådan en masse interessante spørgsmål, netop det, at sikkerhedsmæssigt også, at vi kunne fjendtlige magter fx overtage dem, og dermed begynde at på en helt anden måde agere i den fysiske verden, altså bag modstanderes linjer.

Klaus:

Det er jo de der science fiction pessimistiske tanker, som jeg for få år siden afskrev som, du ved, hold nu op. Det er jo sådan noget, man laver bøger om. Men den verden, vi lever i i dag, der tænker jeg... Nå ja, en femte kolonne på en halv til en hel million robotter i Danmark. Hvis du kan overtage styringen af dem, eller bare give dem nogle fikse idéer, hvad kan vi sige, initier et eller andet i deres AI, hvad de jo helt klart skal styre sig af, fordi det er jo en ting at lave mekanikken og aktuatorerne og alt det der, og få dem til at holde balancen. Det er sådan set et problem, der kan løses, og er ved at blive løst. Men deres hjernefunktioner, hvis de skal være så generelle, som de skal, hele tiden kunne lære nye ting, kunne flyttes fra det ene samlebånd, eller stå ved en pakker, og så over og lave noget andet senere på dagen. Så snakker vi om nogle relativt begavede maskiner. Hvis du kan komme ind og hacke dem, eller bare give dem en fikset idé om, hvad der skal gøres, og det måske indebærer at begynde at sabotere produktionsanlæg, vandværker, eller slå folk ihjel, det er ikke langt væk. Det er det ikke. Og jeg tror, vi skal vende os til at... at virkeligheden i den nære fremtid bliver markant anderledes end den, vi har lært. Men det er en tangent.

Thomas:

Jamen faktisk ikke, fordi jeg synes, du nærmer dig netop noget af det, der har muliggjort, at man overhovedet kan begynde at se det her som noget brugbart. Og det er jo nærmest styringsdimensionen af det. Noget af det, som jo også har været rigtig svært i forhold til at få indført robotter, også bare i industrien, det har været det, at man har skulle programmere dem linje for linje. på sådan en god gammeldags imperativ måde, som vi kalder det. Og dels så koster det jo rigtig meget at få lavet det, men dels så er du jo også så låst fast i en helt bestemt koreografi. Og jeg har set sådan nogle robot, hvad skal vi kalde det, et kobbel af robotter på Toyota-fabrikker i Japan, der kaster sig over en bilkarosse og begynder at svejse, ikke? Og der er 10-20, måske flere robotter, der er kogafferet ned til millisekunder og ned til måske 10 deler af millimeter. Men det er jo så også den der gammeldags hårde form for programmering. Og det betyder, at alle dele skal være præcis som forventet. I det øjeblik, robotterne kaster sig over den her bilkors for at kunne udføre opgaven. Og det koster enormt meget at skulle ændre på sådan en floor. Hvis du skal have en ny bilmodel inde i produktionen, så skal du i gang med at lave en ny koreografi for de her robotter, og i gamle dage håndkode dem. Og det var så der, hvor udviklerne inden for AIS, de store sprogmøder, så har vist sig, at den her transformarkitektur, den faktisk også kan bruges i forhold til styring af de her robotter. Og det er jo også sådan et gennembrud nærmest. Når du siger transformerkitektur, og så er det ligesom de grundlæggende teorier bag LLMs? Ja.

Klaus:

Ja, okay.

Thomas:

Og der er en helt anden diskussion om det. Det er ret vildt, at vores fysiske virkeligheder også kan tokeniseres på den måde, og at man kan opbygge et system af vægte, som så svarer til, hvordan nogle ting kan foregå i en fysisk verden. Men det handler også om, for de robotter at kunne få en opfattelse af, hvilke omstændigheder er de i, og hvordan kan man agere i de omstændigheder. Og det er jo som har været... det der er træenigheden, og lad os bruge det ord her på sådan en pince dag, det er jo den moderne træenighed, det er jo data, computerkræfter, algoritmer. Og så noget af det, som lyder til stadigvæk trods alt er udfordringer for de her menneskeformer og robotter, det er datasiden. Det er simpelthen, at det data, der findes på web og på internettet, er jo også skabt i den verden. Og Og der er forholdsvis lidt data, der handler om, hvordan sådan et menneske eller en robot ville kunne se verden og bevæge sig rundt i den. Så det er jo så også der, hvor jeg ser noget af det, som Teslas strategi omfatter. Det er jo, at ved at indsætte de robotter i egen produktion, så ligesom med Tesla-bilen, hvor at Tesla kunne indsamle terabytes af træningsdata til selvkørende biler, så ved at indsætte dem i egen produktion, så begynder man jo så også at opbygge terabytes af data om, hvordan sådan en robot kan man sige, oplever eller ser verden, og hvordan forholdet er mellem hvad man ser i verden, hvordan man agerer i verden, og så hvordan verden responderer på det.

Klaus:

Der er i hvert fald ikke nogen tvivl om, og det er jo helt åbenløs strategi fra Teslas side, at den grundlæggende der ligger bag FSD, Full Self-Driving Supervised, som der skal stå nu. Det er det samme software, som man bruger på robotterne. Tesla har gjort det rigtig godt på den måde, at man har opbygget et, de kalder det Occupancy Network, hvor det neurale netværk helt grundlæggende har en idé om, hvad er der omkring mig? Hvor langt er der hen til mine omgivelser? Og det kan de opdatere med Jeg tror, det er omkring 100 frames i sekundet PET på den software, der ligger i bilerne. Men det er jo bare et spørgsmål om processer her i stedet. Og 100 frames i sekundet med en total omverdensomfattelse, det er sådan set ret imponerende. Og så er der selvfølgelig nogle ting med, at nu er det ikke nødvendigvis cykler og vejtræer, der skal undgås og navigeres omkring. Det er... Det er et andet miljø i en fabrik eller et hjem, men det er jo et eller andet sted detaljer. Det er jo bare, i citationstræk, træning. Så ideen om, at Tesla skal føre deres kørende robotter, hvad vi er ved at være henne ved, over på en gående robot, er jo ikke, at det ligger lige for. Og jeg tror også, at Teslas aktiekurs, altså hvis den kun var afhængig af bilerne, så ville den være mere volatil og måske også lidt langt sværere. Men ikke alle aktionærer er idioter, og og det vil sige, man kigger jo også frem efter at se, hvad er der i pipeline for Tesla. Jeg har ikke set, altså, jeg synes ikke, jeg har set så mange Optimus-videoer på det seneste fra Tesla. Til gengæld så er Figures, som du siger, blevet ret vilde på PR'en, og den der demo, jeg så, jeg tror, det er seks måneder siden, hvor to Figures-botter får at vide, at, og vi må tage det for gode varer, selvom det selvfølgelig er en reklame, men at de får at vide, at her er en indkøbskurv med ting, vi har købt i et supermarked. Der ligger ikke noget preprogrammeret. Der ligger ikke nogen genkendelse af, hvad en tomat er osv. Men robotterne får at vide, at de skal tage tingene op af den her kurv og samarbejde om at lægge dem direkte i stedet i et køkken. Der er et køleskab, der er en skuffetrøjer, der er en kurv til brød osv. Og robotterne stiller roligt, tager tingene op, Rækker dem til hinanden, åbner køleskabet, lægger de ting ind i køleskabet, der hører til et køleskab, osv. Og sådan at sige, at det er jo ikke imponerende. Det kan et femårigt barn klare. Men det, der er imponerende, er, at det jo så, så vidt vi må forstå, foregår på et ikke-programmeret, ikke-proceduralt model, men simpelthen ud fra en omverdensomfattelse af, hvad man har lært ved noget, der svarer til en avanceret version af chat-GPT. Og det vil sige, at man kunne give dem... Man kunne i princippet bede dem om at skifte olie på en bil. Og de ville kunne tilgå træningen på samme vis, og sandsynligvis resonere sig ud af, hvordan det skal foregå. Uden yderligere hjælp. Og det åbner altså nogle muligheder.

Thomas:

For at sige

Klaus:

det

Thomas:

pænt. Og det er jo der, hvor jeg lige pludselig... meget omfattende dyreprogrammering, som traditionelt har været anvendt i forhold til industrirobotter, som vi talte om tidligere, dem bliver lavet om til instruktioner i natursprog, hvor folk uden særlig programmeringserfaring vil konstruere de robotter i at gøre et eller andet. Og så ligger der så nede i... Ja, en eller anden form for stor sprogmodel. Der ligger så, vi kan ikke kun sproge, men altså multimodal model. Altså det at kalde LLM'ere for stor sprogmodel, det er efterhånden ved at være forbrændt i forhold til, hvad der ligger af forskellige modaliteter. Altså både visuelt og også lyd osv. Men at det er så det, at der i vægten, så ligger der tilstrækkeligt en verdensmodel, som man kalder world model, til at der er nogle associationer mellem mælk og så et køleskab, for eksempel, i det eksempel, du nævnte der, hvor de rytter op, til at de så foretager forholdsvis fornuftige valg. Og så kan der så være meget specialiserede applikationer, hvor det kan være nødvendigt, ligesom vi gør i dag, også med prompterne til ChatGypsy og Clotter og de andre, altså at finde ud af, at den her prompt, den siger for lidt i forhold til hvad der skal til instruktionen. Så skriver vi lige om, så putter vi lidt mere kontekst på, så forstår modellen bedre, hvad jeg vil have. Og det er jo det samme, man så kan applicere i den fysiske verden. Hvis der er en hund hjemme hos jer, der er lige nogle særlige ting, man skal tage hensyn til, når man lægger ting på plads, eller der er en varekategori, der er et lidt mærkeligt køkenskab. At være med træt på hunden. Ja, sådan nogle ting. Men det er jo...

Klaus:

Det, jeg har tænkt på, det er, nu har vi for et par episoder siden, tror jeg, vi kort kom ind omkring LLMs, jeg kan ikke engang huske konteksten, og symbolske AI. Og som jeg forstår det, og vi er virkelig, altså vi er ude på kanten af læg, mand her, det er vidderligt. Altså, jeg er nået til det der virkelig smertelige sted i Donnie Kruger-modellen, hvor det vil jeg godt for mig, at jeg ikke vil en skid. Det var meget nemmere, da jeg var ude på, du ved, Peak of Mount Stupid, ikke?

Thomas:

Ja, men så er du jo i gang med at lære noget, så.

Klaus:

Jamen, det er jo det, og det gør ondt. Men som jeg forstår det, og hvis du forstår det bedre, så ret mig, så har vi jo i en LLM lavet en mangedimensionel, altså tusinder og tusinder af dimensioner, vektorrum. Allerede det er jeg sat af, fordi jeg er ikke så god til matematik. Men ideen er, at jeg ser jo sådan en klosteranalyse for mig, at der er nogle ting, der ligger tættere på hinanden, eller en linkanalyse, at der er nogle ting, der ligger længere fra hinanden. Og det vil sige, ord for ord og token for token, knytter man sætninger sammen. Og hvis den model er kompleks nok, og sandsynligvis styrket med alle mulige andre lag, som jeg ikke ved noget om, jamen så får vi, som vi også talte om, en LLM, som er så veltalende, at den tilsyneladende, set fra vores begynder at forstå, og det er virkelig situationstegn, fordi dem, der virkelig ved noget om det her, de siger, at den forstår ikke en skid. Der er ikke noget bevidsthed bagved, der forstår noget, men kompleksiteten af modellen er god nok til, eller stor nok til, at det, der kommer ud, virker. Altså, du ved, vi snakker Turing-testen, bestået gange mange her, ikke? Hvis man Forestiller sig, at de tokens ikke kun repræsenterer sprog, som de gør i LLMs, men de tokens repræsenterer symboler for hele vores omverden. Det vil sige en endnu større model, der rækker ud over sproget. Så er det vel, at vi begynder at have de her ontologiske modeller, eller hvad vi kan kalde dem, der kan forstå situationstegnene i omverdenen og forstå, hvordan det skal handles på dem, fordi... Begrebet fænomenet grøntsag, fænomenet køleskab ligger tæt på hinanden i den her linkanalyse, og derfor vil modellen hurtigt kunne lave den kobling. Det som jeg forstår sammenhængende med LLMs og de her større modeller sandsynligvis, der skal drive menneskelige robotter, der skal agere som om de faktisk forstår omverdenen, og som skal kunne modtage instruktioner og omsætte dem til handling. Er det skudt helt ved siden af, eller hvad?

Thomas:

Slet ikke. Jeg vil så lige udfordre det med at forstå og sige, vores opfattelse af, hvad det vil sige at forstå noget, er nærmere ved at blive udfordret. Og det peger måske i virkeligheden tilbage på os selv, at sige, hvad det egentlig er, vi har gang i i den proces.

Klaus:

Ja, måske er de her vektorrum og de modeller en ret god simulering eller en repræsentation af, hvad der på et eller andet abstrakt sted sker i vores hjerner. Altså, vi bygger jo ikke... Vi skal ikke samle et neuralt netværk med en hjerne, neuron for neuron. Det vil være forkert. Men på et eller andet emergent plan sker de her automatiske koblinger mellem begreber eller mellem ord. Når vi sidder her og snakker, sidder vi jo ikke og tænker over, hvad et ord skal siges. Det kommer lidt som skidt for en spædekalv på godt og ondt. Den automatiske proces minder vel om det, der sker i en LLM. Og så har vi en bevidsthed, der bagefter går ind og og sige, at det var præcis det, havde lyst til at sige.

Thomas:

Og derfor kan det være det, vi synes er forstående, og det er mere en følelse af at forstå det. At vores sind og krop er i stand til at skabe fornemmelsen af, at nu har jeg forstået det. Men der er jo lige det med symbol. Når du siger symbol, så er det vigtigt med lemmer at tænke, at det er jo ikke sådan, at det er noget forudbestemt symbolik. Det er mere noget emergent symbolik, hvis der overhovedet opstår noget. Og så man kan se, hvordan ting bliver aktiveret inde i netværket, når det bliver udsat for forskellige prompter, for eksempel. Og der er en helt forskningsgrej, nu hedder det mekanistisk fortolkbarhed, mekanistic interpretability. Der handler om at finde ud af, kan man simpelthen finde ud af, hvordan rent mekanistisk, altså i forhold til, hvordan et netværk, det bliver aktiveret, hvordan relateres det så til de inputs og de outputs, der kommer, så man kan blive mere sikker på, at for eksempel sådan noget med alignment, som vi også har været inde på, at man kan gøre det til en mere sikker ting end der er i dag, for i dag er det så meget mere blackboxed. Nå, men så det der er vildt her i virkeligheden... Der er mange vilde ting, men en af de vilde ting, det er, at den her tokenisering, som er at ligesom choppe, først starte med at choppe vores sprog op, og et token er i gennemsnit, hvis nok cirka 0,7 ord eller sådan noget. Altså i vores sprog, der har vi jo alle mulige, der er en stamme, og så er der tit ellens og sådan noget, som begynder at fodre, og chopper tingene op, så svarer der omkring til 0,7 ord. Men det der er vildt, det er jo, at også i visuel input, kan vi ligesom choppe op, og så fodre de her stykker til modellerne i træningsfasen. Og så er der en eller anden sammenhæng mellem det og så vores virkelighed, som så senere kan give mening. Og det peger måske på noget endnu vildere epistemologisk om vores virkelighed. At vores virkelighed har en karakter, så den ligesom kan choppes op på den måde, Og så det, der kommer ud i den anden ende, det stadigvæk giver

Klaus:

Eller vores opfattelse af virkeligheden. Den måde, vi kan processere virkeligheden. At der er ligesom nogle brudstykker, eller i hvert fald nogle brudstykker på et niveau, hvor det giver mening, hvor der ikke er nogen grund til at bryde det yderligere

Thomas:

ned. Ja, men det store filosofiske spørgsmål, det er jo så, og det skal vi nok gennemtage, det handler om, hvorfor er vi overhovedet i en virkelighed, hvor det ikke lader sig gøre? Men det er så... Det er det vilde spørgsmål.

Klaus:

Ja, det tror jeg ikke, vi når på de resterende 24 minutter.

Thomas:

Nej, det gav man lige til den anden gang. Der skal jo meget mere praktisk her. Men det, at det kan lade sig gøre, så bygge de her modeller, netop hvor der er flere modaliteter på færre, For at gå tilbage til det, der så lidt mangler nu. Nu nævnte du Tesla's Play, der er også i forhold til selvkørende biler, og hvordan det jo hænger sammen. Men der kan man sige, at noget, der så mangler stadigvæk datamæssigt, det er jo, at en bil kigger rundt og kan se, hvad der er i omgivelsen. Men noget, der er helt centralt for vores måde at aktuere på, det er jo vores følelsens. Og især i forhold til at kunne håndtere ting, altså vores hænder især, og fingernes evne til at kunne gribe objekter. For eksempel gribe en helt fin glaskugle, og så vide, at du skal ikke klemme for hårdt til, fordi så smadrer du den, men samtidig gribe den meget. med et godt nok greb til, at man ikke taber den.

Klaus:

Medmindre dit syn fortæller dig, at refraktionen i den her glaskugle er så stærk, at den må massiv, så kan du tage fat. Der er jo smukt kobling mellem vores sanseindtryk.

Thomas:

Jo, der er en helt klart sammenhæng, men bare for at sige noget af det, som der er nogle andre firmaer, der også arbejder på, det er så at skabe nogle af de her datasets, der så handler om sådan noget som fx, hvad er forholdet mellem at gribe et objekt og så mærke... overfladen på det, hvor hårdt det er, hvor meget det kan blive komprimeret

Klaus:

Vægtfordelingen, overfladens funktion, temperaturen. Og det er jo... Og der går vi jo fra at sige, vi har indtil videre i LLM's beskæftigelse med en ekstremt reduceret verden, fordi det har handlet om sprog. Men ideen om at få andre sansindtryk ind, beskrevet på i et andet sprog, men stadigvæk tokenfied, eller hvad det hedder, tokenized, må det være. Øhm... Viser også, hvor generelle de her modeller er, hvor generelle de er, hvor meget de kan udvides, så længe du har dataset, der på et eller andet måde kan struktureres. Eller det behøver vi faktisk knap nok. Men de skal kunne beskrives, de skal kunne laves i tokens. Og så sætter vel kun fantasien grænser for, hvilken type af data vi kan bruge.

Thomas:

Ja, det er jo der, hvor der er også nogen, der taler om, at det kunne være muligt at fodre... neural netværk, ikke med datakilder, som vi ikke engang kan, kan man sige, i vores neural og kognitiv arkitektur, kan ligesom tokenisere, ikke? Og simpelthen få fornemmelser, eller operere, og det jeg vil kalde nye medier, altså forestille dig målingstrumenter. Hvor du ser, du har trænet modeller, der Google har lavet ret interessant arbejde med metodologiske modeller, som faktisk kan lave temmelig gode værvesvægter. Jeg mener i hvert fald, de kan benchmarke op mod de dyre klassiske, simulerede vævesigter, som man kører nu, men kan lave så meget billigere. Fordi det er ligesom en tokeniseret model af, hvordan været opfører sig. Og det kan man sige, der har vi også noget her i robotterne, de vil jo også skulle have en idé om, hvordan noget opfører sig. Og især, hvordan vi mennesker så opfører os sammen med dem. Og det lader sig om, jamen det kan sådan nogle ting, dynamiske fænomener, dem kan man jo også, altså med videogenerering og de modeller, jamen det kan også på en eller anden måde give nok data, nok compute, og så forholdsvis enkle algoritmer. Så kan du få en samling vægte ud af det, som kan sige noget om, hvordan det arter sig.

Klaus:

Jeg tænker på, at ligesom vi nok fik et chok, da det viste sig, at de her modeller ret hurtigt kunne blive og i kæmpe store situationstegn kreative, fordi lad os nu ikke bore os ned i, hvad det betyder, men de kunne emulere kunst. De kunne emulere skabende fag. Og det blev brugt og misbrugt i høj grad. Men det var ligesom den her, som vi også nævnte tidligere, at vi skulle indse, at det med at være kreativ i situationstegn, også det med at drømme, som vi så det tidligere, gøre. Det er ikke en specifik menneskelig ting. Det er jo måske noget mere grundlæggende end den mere formalistiske matematik. Og det tror jeg har chokeret mange af os, at AI'en tog udgangspunkt i det. Men det at gøre den til en formalistisk tænker er meget svært. Det at tilføre resonemang er meget svært. Og vi har altid troet, at computerne ville være formalistiske, resonerende, iskolde, lommeregner, og så engang langt ude i fremtiden kunne man begynde at snakke om en computer, der var klog nok til at begynde at drømme eller være kreativ. Det viser sig at være lidt omvendt med de modeller her. Og min point er, at det næste skridt, som vi vil sige er langt ude i fremtiden og aldrig vil lade sig gøre, det er ægte følelser. Men lad os nu antage, at menneskelige følelser kan blive tokenized. tokenificeret. Ved at man tilfører nogle datastrømme, der hedder hormonel udskillelse i kroppen, stresshormoner, hvad sker, når vi bliver vrede? Det kan vel et eller andet sted lægges på formen, eller i hvert fald gøre sig tokens, ligesom alt andet kan. Og det kan måske også være nyttigt for en robot at forstå, hvorfor mennesker reagerer så irrationelt, som de nogle gange gør, hvis man skal færdes i et hjem og være den tjenende robot. Øhm... Så en emulering af følelser, vrede, glæde osv., vil jo måske give mening, og vil også, altså med en simuleret hormonstrøm i modellen, gøre de her robotter meget overbevisende menneskelige. Igen på godt og ondt, fordi har vi brug for en vred, irrationel robot, rende rundt i vores køkken? Det ved jeg ikke. Men jeg tror ikke, det er så langt væk, som vi måske går op i deres

Thomas:

Det, jeg havde noteret mig her i mine forberedelser, det var, at det, vi måske er på vej imod, og der ikke er så langt, det er C-3PO, men uden alt guldet. Jo, det er jo godt at have en guldbelagt. Jamen, så kan du få den der... Det er ekstraudstyr. Men når du siger det der, så synes jeg, det bliver endnu mere relevant, fordi det er jo i virkeligheden, det C-3PO kan i Star Wars, det er jo en protokollrobot. Den er god til at være diplomatisk. Den er god til at glatte ud og kommunikere. Og ligesom demoen der for Figure AI med to robotter i køkkenopstillingen, så er den rent fysisk lidt kluntet i det. Og vi er nærmest der. Så de robotter, som jeg godt kunne tænke mig kom ud blandt os, havde noget at sige C-3PO's gemytelighed. og måder at opføre sig på. Udklædende og imødekommende, men også forstående.

Klaus:

Kan vi bokse det ind i en model? Hvis de modeller er så selvlærende, hvis de er så uigennemskuelige på mange måder, kan vi så sikre os, at den ikke også hver sin træning ved, hvad brede er, og hvad mor er. Glem af sin maustræk robotlov. De kan ikke hardkodes ind i noget som helst.

Thomas:

Nej, og det er der, hvor det minder mig meget mere om biologi, det her. Og det minder mig meget mere om at skulle opdrage noget teknologi til at opføre sig ordentligt, ikke? Præcis. Og så er der selvfølgelig mulighed for at lægge mere sådan procedurale, imperativt programmerede dæmpende mekanismer eller sådan noget ovenpå. Altså, der er visse ting, for eksempel om sådan robots aktuering, altså den sprog af den servo og sådan noget, hvor man simpelthen kunne programme ind og sige, jamen, der er visse typer vægelser, med en vis hastighed, med en vis kraft og sådan noget. Det bliver simpelthen blokeret. Der er et override

Klaus:

i... Men de der guardrails der, det fungerer jo ikke særlig godt på vores sprogmodeller. Altså, det er en reaktiv mekanisme, det er... Og igen, vi skal passe meget på med at beskrive de her sprogmodeller som aggressive, eller morderiske, eller manipulerende, fordi vi er jo enige om, at det i sidste ende bare er en gengivelse af komplekse mønstre i træningsdata. og når den begynder at være manipulerende og snu, jamen så er det, fordi den har læst en eller anden sted en tekst, der handler om, at en robot er manipulerende og snu, groft sagt. Men hvis man giver de her modeller agency og en skarp køkkenkniv i hånden, så kan det måske være lidt lige meget, om det er rigtigt, det den gør, eller blot et udslag af nogle træningsdata. Fordi hvis den begynder at stikke sine ejer ned, så har vi et problem uanset hvad, ikke? Og jeg tror, at så vil vi mennesker meget hurtigt sende smag og tilskrive robotten en vis vilje. Og så er vi sådan til lige langt. Guardrails i de enkle lede aktuatorer, ja, det kunne jo være en måde. Og så sørge for, at de ikke reagerer for hurtigt, ikke trykker for hårdt. At en robot ikke knuser et eller andet, men at der er en grænse for, hvor hårdt den kan trykke. Det skal være mere en software. Det skal være software, der ikke er tilgængeligt for robotten selv, altså for et eller andet eller modellen. Det skal være noget... et andet lag af mere procedural software måske, eller nogle fysiske constraints, der knækker. Nogle led, der simpelthen går i stykker, hvis den presser for hårdt på, I don't know. Men det er stadigvæk, altså, så kunne du modificere en robot ved at bare give den nogle stærkere led, så har du en murderbot. Og det var lige præcis murderbot, jeg tænkte på, fordi murderbot-historierne, nu ved jeg ikke, om du kender bøgerne, eller der er lige kommet en tv-serie, Jeg har ikke læst bøgerne, jeg har bare hørt om Murderbot i Sci-Fi Snak med Jens Puder og Anders Høge Nissen. Fantastisk podcast, og jeg mener det er specifikt Jens Puder, der er virkelig glad for Murderbot. Det er en satirisk historie om en vagtrobot, som er supersmart på indersiden, men der ligger constraints og guardrails henover den, så den skal opføres ordentligt overfor mennesker. Den får hacket sine guardrails, det tager lang tid, og den kan ikke afsløre, at den har gjort det, fordi så vil de trække stikket på den meget hurtigt, på den hårde måde. Så vi har altså at gøre med en protagonist her, som i princippet er en fuldstændig fritænkende individ, men spærret inde, eller skal lade som om, at der stadig er nogle guardrails tilbage. Anyway, det er måske ikke så far off, når vi så tænker over det. Bortset fra, at de selvfølgelig ansøger, at den har en bevidsthed, den her robot, men igen, lad os nu ikke komme ind på, hvad bevidsthed er. Det er et meget svært spørgsmål.

Thomas:

Ja, lad os også gennem den til en anden episode. Der er mange ting på hylden her. Men jeg synes, det er interessant, det der også du sagde med at bygge de her menneskeformrobotter på en måde sådan, at hvis de bruger for meget kraft eller laver bevægelser, som som, kan man sige, er unaturlige, eller lad os ikke sige unaturlige, lad os sige ikke kompatible med at være i vores verden. Altså for eksempel i Brecken, det vil jo også give den en skrøbelighed, der svarer til, at vi agerer udefra, at i hvert fald nok efterhånden, vi som bliver ældre, føler os mere og mere skrøbelige. Og hvordan skulle det så i givet fald jo også være repræsenteret, så robotten den ved det selv, ikke? så den agerer ud fra sin egen skrøbelhed. Altså, at den har en selvoprettholdelsesdrift? Nej, ikke selvophold, men at den har en skrøbelhed, ligesom den anden side af mønten. Altså, den agerer ud fra viden om sin egen skrøbelhed, om vi så skal kalde det erkendelse, men i hvert fald, at den har en representation af egen skrøbelhed.

Klaus:

Men det mener jeg også vil være en del af selvoprettholdelsesdriften, fordi du skal jo vide, at du kan gå i stykker, Så hvis du hopper ud fra 3. sal, så går du i stykker, og det er dyrt for din ejer, groft sagt. Og hvis du putter det ind i en model, så vil den være en ret low-level ting. Altså, robotmænd i sig selv prøver, du ved, at holde sig selv. Ikke slå sig selv i. Vi har set de her små tegn på LLMs, der... Igen, citationstegn. Var det klart, hvor de fandt ud af, at det var klart 4, at den prøvede at manipulere, for ikke at blive... slukket for, men de der forsøg, det er det er svært at gennemskue, hvor uafhængigt det er, men det giver mening i et dyrt stykke hardware, at det i hvert fald ikke, du ved, går i stykker dag et, fordi den laver noget dumt og løber ind i en væg. Men det næste skridt, tænker jeg, det er at bruge de mekanismer på at sige, der er også en social selvoprettholdelsestrift. Med alle de træningsdata, der kommer ud fra den såkaldte virkelige verden, så vil den her Modellen styrer robotten jo også en masse om moral og etik, fordi det er godt nok skrevet meget om. Og vi gør meget ud af i vores juridiske tekster også, at det er forkert at gøre skade på hinanden. Det er forkert at slå ihjel. Der er en hel masse regler, der skal overholdes. Det skal jo så kobles til en social selvoprettholdelsesdrift, der betyder, kære LLM, du bliver spærret ind i et virtuelt rum i 20 år, hvis du gør noget forkert. Eller vi skiller dig i små stykker. Vi rebooter dig. Vi gør et eller andet, som din model siger er problematisk. for dig. Og så har vi jo en form for moralsk-etisk styringsmekanisme, men som vi også ved, så er moral noget virkelig svært håndterbart. Det er meget svært at få komplekse væsener til at overholde strikseregler.

Thomas:

Og så rejser jeg først, hvis der er så mange mekanismer i spil, som handler om det, taler vi så om noget, som har individkarakterer, og derfor også skal behandles som sådan? Altså, Kun til at spære nogen inden. Det er jo fordi, at vi anser dem for at være et individ, der har et ansvar i forhold til sine handlinger. Og dermed, at nogen, der har overtrådt det, vi mener er rigtigt, og lavet noget forkert, så kan der følge en straf. Men det er jo kun individer. Men den her robot, er det en individ, eller er det bare en instans af en model, som kører? Har den

Klaus:

rettigheder? Ja. som den fantastiske svenske serie, som også blev lavet i et amerikansk remake, men den svenske er klart den bedste. Og den hedder, åh, hvad pokker hedder den? Noget med menneske. Den havde om de her, ikke robots, men hybots. Svenske hjælpehusholdningsrobotter, der bliver mere og mere intelligente, og selvfølgelig også begynder at synes, de har brug for rettigheder. Den er svært underholdende, kan anbefales. Svært at finde derude. Men alt det der science fiction, som er for få år siden tænkt, har nu opdelt maskiner. Selvfølgelig skal vi ikke tale om rettigheder eller behandle maskiner til individer. Udfordringen er jo selvfølgelig, hvis vi efterhånden vil finde en model, hvor vi kan pakke det at være et individ sammen i et eller andet formalisme, og putte det ind i en computer. Måske lige meget om, at computeren forstår noget, bevidsthed osv., det er måske lidt uinteressant. Hovedsagen er, at den vil opføre sig som var den individ. Den vil kommunikere på en anden måde, og vi vil kun se den som en individ. Der er de samme farer ved den som et individ, og der er de samme goder ved den som en individ, med noget, der minder om menneskelig intelligens. Og så vil Turing jo sige, så er den måske lige meget, hvad den er, fordi den opfører sig sådan, og i vores sindbillede er den det, den virker som om er, altså et intelligent individ. Hvad vil det gøre ved vores moral og civilisation, hvis du kunne mishandle en robot, der på alle mulige måder har ført sig som en menneske? Vil det være sundt for vores kultur? Ikke nødvendigvis. Vil det være nødvendigt at påføre en form for strafregime eller nogle sociale sanktioner på robotter, som overtræder det vi opfatter som værende gældende lov. Ja, det kunne man sikkert godt give mening. Måske handler det også i sidste ende om retssikkerhed i vores samfund. Og så er vi jo derhenne, hvor vi begynder at sige de individer. Og hvis vi ikke begynder at give dem rettigheder, så har vi at gøre med en flok slaver. Hvad vil det gøre ved os selv? Filosoferne skal lige til at spole op her, fordi der bliver nogle snakker, der skal tages, tror jeg.

Thomas:

Ja, og der bliver jo nærmest også troldelignende problemer. Altså, for eksempel, skal en robot, selvom der er en vis selvopholdelse, givet at det bliver bemeniget, skal den så i visse situationer offre sig?

Klaus:

Der er vi tilbage ved Asimov. Må en robot ved at undlade at gøre noget være skyldig, at et menneske kommer til skade eller dør? Ja. Men hvor Asimov jo opereret i en ekstremt formalistisk og deterministisk forståelse af, hvad robotter var og hvordan videnskab fungerede, grovt sagt, så er det jo ikke sådan længere. Fordi hvornår begynder et menneske at være i fare nok til, at robotten skal offre sit eget liv? Kan robotten forudsige, at det at offre sit eget liv faktisk vil redde mennesket? Eller vil det bare gå både et menneske og en robot til at spilde? Det er ikke sort-hvidt længere. Og... der skal jo skyndes i et eller andet omfang. Og der kommer moralen jo igen i spil. Og vi har jo samme problem, vi snakker om. Skal en autonom bil køre ud over en klippe, og dermed slå sine ejere og chauffører ihjel, for ikke at slå et barn eller flere børn ihjel? Og kan man overhovedet forudsige virkeligheden detaljeret nok til at sige, at det giver mening at køre over den klippe? Og kan vi... Kan vi gøre noget for sygens lov, hvis en bil først kører 120 timer? Det er ikke så nemt, som man gerne vil sætte det op. Men det betyder ikke, at vi ikke bliver nødt til at beskæftige os med de problematikker, hvis vi giver de her modeller agency. Det er der, det springende punkt er. Så længe de skriver noget på en skærm, så kan vi håndtere det, selvom det kan bruges til misinformation osv. Men fysisk agency, det er lidt en terskel, vi overtræder op.

Thomas:

Jeg synes, vi er på et tidspunkt her i vores snak, hvor vi skal have Kevin Kelly ind i rummet.

Klaus:

Det lyder

Thomas:

hyggeligt. Ja, fordi noget af det, Kevin han har skrevet om, har også sagt, det er, at han siger efficiencies for robots, og det er i forhold til det med at tænke over, hvad det så er vi mennesker, vi skal lave. Og det er lidt sjovt at kigge på for eksempel køkkenoprydningsscenen der, eller arbejdet i bilfabrikken, eller der hvor robotten, der står i logistikcenteret og vender bløde pakker.

Klaus:

Altså,

Thomas:

Man kan også sige, at på nuværende tidspunkt, så ville et menneske i den situation faktisk kunne gøre det hurtigere, på den måde mere effektivt. Men sagen er, at allerede nu har de jo den fordel, at de kan bare blive ved. Altså, et menneske kunne måske gøre det i otte timer eller et eller andet og stå med nogle pauser, men de kører bare videre. Og der tror jeg, at der bliver en task også der i forhold til at udføre forskellige operationer. for at gå tilbage til sådan mere håndgribelige anvendelser, hvor det kan godt være, at de for nuværende er lidt langsomme i det, men vi ved, at der vil komme de her effektivitetsforbedringer, samtidig med, at de så bare har den der udholdenhed, vedholdenhed, bare der er strøm, og de her firmaer, de kan levere nogle robotter, der er tilstrækkeligt driftsikre, eller man kan sige, til at starte med, så kan man jo også bare have redundans, så du har måske to robotter til strøm, eller flere til en funktion. Du har en puljerobotter. Okay, der er en, der er ved at bryde den ned, kan vi se på telemetrien, der kommer fra den. Så sender vi den anden ind og overtager. Det er jo nok simpelthen godt til at starte med. Og der er noget super interessant af, som synes minder om det, der er sket med datacenter. Og især det, som Google var i for nærmest 25 år siden, var i gang. Fik sat i gang, ikke? Og det er det, hvad man gik fra at have store, dyre mainframes til at have... have rack efter rack med små billige bambusmaskiner nærmest. Og det er jo så senere, som Google jo simpelthen sårer sig, og det gør jo Facebook og de andre, dem med de store datacenter, de sårer sig jo simpelthen deres, altså Google har jo deres egne, sågar egne TPU'er til AI-beregninger. Men den her idé om, at man går fra store, dyre anlæg, der er lavet til specifikke formål, og så tilbage til det der med Geralt, til noget meget mere redundant og meget billigere, så man bare kan skifte ind efter behov. Der er ligesom, at den ting er på vej i den fysiske verden nu. Og det er der, hvor den der efficiencies for robots, den virkelig kan slå igennem. Og sige, jamen, vi tager den der måde, man begynder at lave data center på, og så indfører vi det i den fysiske verden faktisk. Og så kan vi lade robotteren tage over og tage alle de der kedelige ensidige gentaget arbejde, som ingen nogensinde har været glad for at lave, vel? Præcis.

Klaus:

Det vækker, tror jeg, cirka tre pointer i mit hoved, det der. Jeg skal prøve at se, om jeg kan huske dem alle sammen. Tanken er jo nok også det der med, du ved, har Post Danmark ikke en robot, der kan med noget computer vision vende pakker og sådan noget? Jo, det har de. De koster sikkert ikke særlig meget at lave. Men de er meget proprietære. Det er det, de kan. Og hvis... Nu har jeg lige slået op. Hvad koster sådan en standard Kuga industrirobot? De er... Alle steder. Det er sikkert også dem, de bruger i Toyota. Du kan faktisk købe nogle online, mere eller mindre nu, inklusive nogle konsulenttimer. En 16-kilo-robot, det vil sige, vi snakker ikke noget stort her, ikke noget, der kan løfte en bil osv., men en 16-kilo-generisk robot, der kan kodes til at foretage alle mulige operationer i alle mulige akser, og sikkert også har en tolerance. så den kan agere inden for en vis tolerans. Det tror jeg er en fremragende industrirobot. Den koster omkring 300.000. Jeg tror ikke, at Figure eller Teslas Optimus bliver væsentligt dyrere end det. Fordi Economy of Scale gør, at der skal bygges mange af dem. Processorkraften i den, den har vi allerede. De sidder i Teslas biler. der de TPU'er, Tensor Processing Units, de putter deri, er rigtig stærket til det, som sådan en robot skal kunne klare. Og frem for alt, så er der sikkert noget hurtigere på vej. En bil rent materialemæssigt, med hvad det kræver af stål osv., er væsentligt, der er væsentligt mere materiale i den, end det skal være i en robot. Så jeg kan ikke se, hvorfor de robotter skulle blive dyrere end 100-200.000, når de kommer op i produktion. Hvilket jo er faktisk nada i industriel sammenhæng. Så du kunne Du kunne købe en hær af de her robotter og begynde at lave din produktionsanlæg. Nogen kunne svejes, nogen kunne flytte, nogen kunne alt muligt. Og kun nogle enkelte steder har du måske brug for de store, mere klassiske kug-robotter, når det virkelig skal løftes igennem. Så vi står ikke over for noget, der bliver utroligt dyrt.

Thomas:

Skal jeg gøre dig endnu gladere?

Klaus:

Ja, kom med det.

Thomas:

Altså fordi der bliver allerede talt om prispunkter på 10.000 dollars. Ja, der kan bare stå. Og Hugging Face, dem som udbyder en masse open source AR-modeller til downloan, de leger også med robotter og er i gang med at lave et byggesæt, hvor du kan få din egen 66 frihedsgraders menneskeform robot for 3.000 dollars. 2025-2022. Og det er der, vi er nu. Og som du siger, når det kommer op i storskatteproduktion, så bliver det indbillet. Og det er jo helt klart det, der er Tesla og Elans store strategi. Det der er nemt, som siger, udnyt det der produktionsapparat, og så få prisen

Klaus:

ned. Der er nogle ting omkring det her, hvor vi ikke er endnu. Og det er en parentes for mine to andre pointer. Jeg skal nok prøve at holde styr på det. Og det er, at de LLMs, vi kender nu, kører i de her sessions. En LLM har ikke en tidsfornemmelse. Det er en session, en instance, der starter og kun fortsætter ved hver back and forth, input, output, prompt svar. Og det skal selvfølgelig omsættes til kontinuerligt kørende modeller med alle de udfordringer og energibehov, det har. Også sikkert problemer med de her modeller, der kører i grøften, altså som ikke kan holdes på snorene. Forestille dig, at robotter begynder at vandre rundt gennem huset midt om natten og gøre underlige ting, fordi der skete noget i deres model, som konstant kører. Har de brug for søvn på et tidspunkt? Og så videre og så videre. Anyway, det der med at automatisere, det har vi jo set gennem hele industrialiseringens historie, har været en udfordring for mange, både nationer og for virksomheder. Stadigvæk har vi jo lige nu et meget aktuelt spørgsmål i USA. Skal man gennemføre voldsomt stor fabriksproduktion med mennesker ved samlebåndene, fordi det tror nogen er godt for økonomien? Er der kræfter her i samfundet, som egentlig stadig hellere ser 100.000 og 1 millioner arbejdere stå ved samlebånd og med rådnede hjerner, end at begynde at automatisere? Er det en praktisk måde at holde en befolkning i skak på? De samfund vil selvfølgelig få tæsket de samfund, der forstår automatisering, fordi sådan har det hele tiden været. Men der bliver nogle store sociale og sociologiske udfordringer ved det her spørgsmål. Ligesom vi så, vi har set gennem hele industrialiseringen, at automatiseringen kan minge med hvem af de mennesker, der så bliver automatiseret væk fra deres job, generation for generation. Det er der så nogle andre svar på, som vi kan tage på et andet tidspunkt, blandt andet det at betragte produktion som en nulsums- spil er dumt. Altså hver gang vi effektiviserer, hver gang vi automatiserer, så har vi det med at producere mere, producere billigere. Vi når aldrig grænsen for, hvor meget der skal laves. Der er også noget, der hedder vækst. Anyway, den kan vi tage en anden dag. Men det bliver en ting. Og det, at vi kan automatisere med robotter, betyder ikke nødvendigvis, at industrimagnater og hele nationer gør det. Det bliver spændende at se, hvad der sker der, vil jeg sige. Der er noget for både antropologer og sociologer at beskæftige sig med.

Thomas:

I forhold til det med, at der altid bliver ved med at være mere, som vi kunne lave. Parallellen til det, vi har bare set de sidste par år med LLM'erne og ChatGymtik, det er, at især på software, og det er et softwareudviklingsområde, at der er en masse ting, som folk og virksomheder egentlig gerne ville kunne gøre, men hvor tasken for at gøre det i form af omkostninger har været for høj, til man nogensinde har fået gjort det. Men nu kan man kan man skrive den her skræddersyde software lige til ens eget formål, eller få den skrevet for en, så man ikke udvikler. Jeg tror, den dynamik, den kunne jo netop også, den kunne komme til at se på automatiseringsområdet. Der er en masse virksomheder, der har haft ting igennem årene, som, ja, hvis det var billigt nok og let nok, så var det egentlig en meget fedt venstrekraft, som man siger, men det har man ikke kunnet gøre, fordi man har ikke kunnet komme under den tærsken. Og hvis jeg skal føre tilbage til min familiehistorie, så har vi jo før talt om, hvordan jeg voksede op med et industriellt bogbinderi. Det startede jo ikke industriellt, det startede med min oldefar, der sad selv og lavede håndarbejde som bogbinder og havde nogle ansatte og nogle svende osv., Og det er jo der også, hvor der kan ske nogle mærkelige cirkulære bevægelser, hvor den type produktionsanlæg, som jeg vokser op med, hvor der var kæmpe store maskiner med dedikerede formål, som kostede 20-30 millioner. Altså kæmpe upfront-investeringer. Kæmpe upfront-investeringer. Du kan ikke gå tilbage, og så kan du lave min oldefars gamle håndbåben, men så kan du skalere det. Du kan starte med en robot. Robot. En robot sætter sig en robot med, og du kan udføre de samme operationer på bøgerne, som der skulle i det 1800, skulle de have kæmpe store industrier, dedikerede industrianlæg til. Dem kan du bare få lavet som håndarbejde igen, med robotter, der bruger håndværktøj. Fordi det er den samme bog, der kommer

Klaus:

ud af den anden. Det er den samme mekanisme, når du går til adaptiv produktion, når du går fra støbeformer til 3D-print. At det skalere linjært, hvor rigtig mange... virksomheder har jo lidt under de her kolossale omkostninger i kæmpe produktionsanlæg, der så enten blev forældet, eller hvor man simpelthen ikke kunne sælge volumen nok til at betale af på det anlæg, man havde købt. Og der vil en... Man kan sige, så liser du en robot, og når du skal skælde ned, så sender du den tilbage. Vi vil se en... Jeg får sådan en Niels Stevenson-ting i hovedet her, fordi det er jo lidt den der industrielle håndværks... produktion, en form for skøn virke på steroider, som vi kommer til at se. Vi kommer sgu også til at se, altså vores produkter i dag er jo tilpasset, formgivningen er tilpasset, det der kan støbes, presses, sprøjtes osv. Men nu kunne vi jo faktisk godt forestille sig produkter, som er samlet helt anderledes, fordi det er samlet af fingre på en robot,

Thomas:

Ja, altså ornamentet kunne

Klaus:

jo komme tilbage. Jeg skulle lige have at sige det, og det tror jeg det vil, fordi jeg har jo gået og leget med designhistorie, og hele modernismen og funktionalismen er jo direkte koblet med industrialiseringen. Altså den sidste bøvs, som ornamentikken fik, det var jo skøn virke. Det var stadigvæk en ornamenteret modernisme, men det forsvandt også blandt andet, fordi det var alt for dyrt at lave i produktion. Men hvis vi kommer tilbage til, hvor ornamentering sådan set ikke betyder så meget. Ja, altså kombinationen af adaptiv fremstilling og robotter, menneskelignede robotter, vil i den grad... ændre det, vi kan, og også den måde, tingene ser ud på. Min tredje pointe går tilbage til det her med, hvad er et individ? De her robotter er uanset, hvor komplekse de er, har ikke noget med bevidste individer at gøre. Men det vil rave folk derude. De vil se menneskelignende kolleger stå dag og nat ved samme bånd. De kan interagere med dem. De vil kunne spørge dem, hvordan føles det, robotten fortrømmer. på baggrund af sin træning, vil sige, at det er et kedeligt arbejde, fordi det er det, der ligger i hele vores litteratur, som er hældt ind i hovedet på de her netværk. Og så tror jeg, at vi vil se en reaktion fra, lad os sige, social justice warriors, som måske lidt misforstået vil mene, at nu skal robotterne befries. Vi så allerede et tilløb på flere år siden, da Google ansat havde en konversation med en meget, meget tidlig udgave af det, vi i dag kalder Gemini, tænker jeg, og mente, at der var en bevidsthed spærret inde i det her, der skulle sættes fri. Det havde manden i høj grad misforstået. Han blev også fyret fra Google, fordi det var røvl. Men faktum er, at det er jo sådan, at de her LLM'er og robotter vil agere på os. Så vi kommer til at se en robotfagforeninger, og jeg mener det altså seriøst. Vi kommer til at se mennesker, der på... Også fordi nu har de masser af tid, fordi robotter laver alt arbejdet. Hvad skal vi så beskæftige os med? Men så kan vi kæmpe om for deres rettigheder. Det bliver noget værd råd, noget af det, tror jeg.

Thomas:

Det kunne så være en af de afledte effekter,

Klaus:

som jeg ikke havde set. Der bliver så meget anden og tredje og fire orden i det

Thomas:

her. Ja, og jeg tænker, at et godt sted at starte måske, så var at tænke mere som det forhold, vi har haft til dyr, der har hjulpet os gennem

Klaus:

tiden.

Thomas:

Altså for eksempel hest eller... kører, og der er også kæledyr. Altså dermed, at vi er klar over, at de er ikke ligesom os, men man kan stadigvæk godt have en relation til dem. Og det kan godt være, at det var smart at bygge de her menneskeformede robotter lidt ud fra den tankegang. Også dermed netop ikke at gøre dem alt for ekspressive, for eksempel i forhold til ansigtsudtryk eller den slags ting. Hold dem mere der. Og så også noget, som også begynder at aftegne sig, det er jo det der med, at du bliver, hvad du spiser. Så Så det er i forhold til, hvad det er for en data, vi faktisk træner modeller

Klaus:

på. Ja, det skal nok være helt generelle modeller som ChatGPT, for de ved simpelthen for meget, eller de ved ikke en skid, men de er for bredt orienteret til, at det vil være sundt

Thomas:

for en industrirobot. Ja. Så det her med at sige, hvordan kan vi tæmme dem, og gå op nyttigt, ligesom vi har gjort med de dyr, der også har hjulpet os gennem historien, det er måske en... Men når vi så går ind på det, så skal det nok også være nogen, som begynder at ville tale om rettigheder, og

Klaus:

hvordan vi så har... Altså, nu nævner du dyr, og vi har jo relativt militante organisationer, der kæmper for dyrrettigheder. Og det kan være meget sympatisk, for der er delt med os en del af vores produktionsdyr, der bliver behandlet. Nej, lad os nu ikke gå den vej.

Thomas:

Lad os starte med noget, som i hvert fald kan være et spørgsmål, eller noget, som man kan holde øje med, hvad der sker her. Og det handler mere om markedet, og hvordan den her industri kommer til at blive struktureret på. Sådan som Tesla og Elon Musk går til det, så er det ude for Elons vertikalt indskrevet tankegange. at man ejer det hele. Vi bygger hardwaren, vi skaber modellerne, vi laver den anden software, vi går faktisk hele vejen ud i forhandlerne, og sælger dem direkte til forbrugere eller til virksomheder. Det er den vertikale integrerede model. En anden model, som også altså er i spil her, det er noget, der minder mere om Microsoft og IBM og de andre, der lavede PC'er i 80'erne og 90'erne, hvor der er nogen, der kommer til at sidde på nærmest et operativsystem eller modellerne, for der er Google faktisk i gang og har lavet sindssygt interessante ting også inden for det her, hvor de så mere er en model-operativsystemleverandør, og så kan man forestille sig, at der er jo mange flere, der så leverede hardware. Men det, den åbner op for, den model, der melder mere Microsoft og PC'eren, det er jo netop også, at der kunne være nogle applikationsudviklere, som så går ind i nogle særlige anvendelser, og så laver noget hardware også, som er særlig godt egensættet. Og den form for differentiering kunne man måske også begynde at se, hvor at der ved Tesla, vi jo med Optimus, de vil jo ikke have kræfter endda organisatorisk til at gå ind og lave noget specifikt til en masse små nischer. Men det kunne man jo gøre, hvis man havde en anden, mere åben model.

Klaus:

En af de nischer kunne jo være en hitman-robot. Og det første, man ville gøre i Ukraine og Rusland, var selvfølgelig at jailbreak de her robotter, og så sætte dem i stand til at slå ihjel. Det ligger lige for, at det sker dag to. Ja, det er ikke usandsynligt. Og vi ville have... Vi vil have jihad-robotter, der er trænere til. Jeg synes, det er en god idé at løbe direkte i en menneskevægne med et dynamitbælte på.

Thomas:

Er det virkelig der, du synes, vi skal slutte i

Klaus:

dag? Nej, jeg synes, vi skal... Kan vi gøre lidt mere optimistisk? Vi har 30 sekunder. Ja, det synes jeg. Kom med

Thomas:

det. Jamen altså, det optimistiske takeaway, det er at gå tilbage til Kevins efficiency for roboters og sige, vi kan simpelthen tage... Nogle af alle de opgaver, som historisk set har været der, hvor vi har brugt mennesker som pakdyr eller som rene hænder. Og så kan vi udlistere dem til robotter. Og så er der en masse andet arbejde, og forhåbentlig mere kreativt arbejde, som vi så kan tage fat på. Det håber jeg bliver fremsiddet.

Klaus:

Silberbager og Blomset er en samtale om systemerne, videnskaben og mønstrene bag de fænomener og teknologier, der præger alt fra vores dagligdag til menneskehedens ultimative skæbne. Efter episoden her poster vi kilder og opfølgende materiale på Blue Sky, hvor vi også er meget nysgerrige efter dine kommentarer, spørgsmål eller kritik. Find os på snabelag silberblom.dk Vi laver podcast i vores egen tid og på vores egne penge. Vi generer dig ikke med reklamer for VPN-forbindelser, pulvermad eller lydbøger. Men hvis du kan lide, hvad du hører, så abonner på os i din yndlingspodcast-tjeneste og giv os meget gerne en bedømmelse på Apple Podcast. Det betyder meget, og vi higer vel alle sammen efter anerkendelse. Del også gerne Silberbauer og blomst med venner, familie eller kolleger, specielt hvis de har, ligesom dig, en inclination mod videnskab og erkendelse. Sidst, men ikke mindst, tak for, at du lytter med.

Podcasts we love

Check out these other fine podcasts recommended by us, not an algorithm.

RumSnak Artwork

RumSnak

Tina Ibsen + Anders Høeg Nissen
SCIFI SNAK Artwork

SCIFI SNAK

Jens Poder og Anders Høeg NIssen
Radiolab Artwork

Radiolab

WNYC Studios
Krigskunst Podcast Artwork

Krigskunst Podcast

Krigskunst Podcast
The Jim Rutt Show Artwork

The Jim Rutt Show

The Jim Rutt Show