Podchaser Logo
Home
Risker med AI & hur kommer det förändra samhället - Gäst: Rebecka Cedering Ångström

Risker med AI & hur kommer det förändra samhället - Gäst: Rebecka Cedering Ångström

Released Monday, 6th March 2023
Good episode? Give it some love!
Risker med AI & hur kommer det förändra samhället - Gäst: Rebecka Cedering Ångström

Risker med AI & hur kommer det förändra samhället - Gäst: Rebecka Cedering Ångström

Risker med AI & hur kommer det förändra samhället - Gäst: Rebecka Cedering Ångström

Risker med AI & hur kommer det förändra samhället - Gäst: Rebecka Cedering Ångström

Monday, 6th March 2023
Good episode? Give it some love!
Rate Episode

Episode Transcript

Transcripts are displayed as originally observed. Some content, including advertisements may have changed.

Use Ctrl + F to search

0:30

Hej! Välkommen till Sekten podcast

0:30

på den där vi diskuterar,

0:33

dissekera och om vi har tur

0:33

informerar om sekt teknik.

0:37

Det är så

0:37

roligt och så roligt.

0:39

Från att knappt kunna sitta

0:39

och inte hålla masken till att

0:43

dra den här med världens fest.

0:45

Jag vet inte riktigt hur du gör det.

0:48

År av träning

0:50

År av träning. Ett år av träning.

0:54

Ska vi låta denna stelheten

0:54

gå över fort som bara den

0:58

och släppa på våran gäst.

0:59

Kör.

1:00

I dagens avsnitt har vi en gäst. Hon är princip researcher på

1:02

Ericsson Consumer Industry.

1:07

Hon är en av grundarna

1:07

av tankesmedjan.

1:10

Är det AI som är att fokusera

1:10

på oss i samhälle och framtid?

1:15

Utöver det så studerar han

1:15

också som industri doktorand

1:18

vid Handelshögskolan i

1:18

Stockholm där han undersökt

1:21

integreringen av artificiell

1:21

intelligens i organisationer.

1:25

Välkommen till Kärlek Podcast

1:25

Rebecka Sedering Ångström.

1:29

Tackar tackar tackar tackar! Det är fantastiskt med rök från.

1:36

Men jag försökt öva på

1:36

den här nu i 20 minuter innan

1:42

den sitter där

1:43

Vi ska inte erkänna att

1:47

Men vad är detta? Hög nivå, låg ribba

1:49

Ett

1:51

och rykte och forskare.

1:53

Kan man så

1:54

hamnar man på den

1:55

kan man säga det.

1:58

Vad ska du kalla dig då?

2:01

Vi börjar öva. Vi behöver de rätta frågorna

2:02

till identifiera hur vi själva.

2:06

När vi forskar är det

2:06

är det som är så roligt.

2:09

Jag är inte en teknisk forskare

2:09

utan jag tittar på människor

2:12

och beteenden, förväntningar på

2:12

ny teknik och hur vi integrerar

2:16

teknik i våran vardag. Och jag har de senaste sex åren

2:18

egentligen bara tittat på AI.

2:22

Så ja, kanske kan man säga

2:22

att man är i forskarlag.

2:25

Och det är en väldigt bra fråga.

2:27

Prova

2:28

Jag tycker det.

2:30

ikväll.

2:31

Ikväll var jag ikväll uppe

2:35

anar man hur man kommer in på det. Jo.

2:37

Bakgrund inom industrin Befann

2:37

ingenjör för tusentals år sedan

2:42

och väldigt fascinerande vad som

2:42

händer i mötet mellan människa

2:45

teknik och så här tittat

2:45

på den typen av forskning.

2:48

Jag jobbar på som det. Asså nu när förstår du hur

2:49

gammal jag är som också

2:51

pratar om att jag haft en C64? Men men, nu är

2:57

Jag. väl 16 år? Tveksamt. Och där har forskare

2:59

tittat på just det här.

3:03

Vad som händer med människor gör

3:03

det svårt när dom tittar på vad

3:06

som händer i människors liv, när

3:06

man bör använda ny teknik och

3:09

senaste fem åren eller för att

3:09

hälsa på på Handelshögskolan och

3:13

gjort samma sak fast egentligen

3:13

går förbi Separator och så

3:17

hamnar jag här och ni är här. Där är

3:19

höjdpunkten var

3:21

Yes!

3:22

hitta

3:23

Att berätta att jag

3:23

tänker är om vi ska prata och

3:27

i samhällets implementation

3:27

så finns det väl ingen

3:30

bättre i så fall tänker jag.

3:32

Vi måste säga nej då. Helt rätt. Men det finns jättemånga

3:34

som är superbra. Men det är olika

3:36

perspektiv och vi har olika fokus.

3:39

Så nu kommer ni få ett perspektiv av mig.

3:41

Det är bra det. Hur hamnade du på Handels?

3:44

Var det liksom Erikssons initiativ eller var det ditt eget?

3:47

Både och. Jag hade väl peppat och

3:48

pratat länge om att jag ville.

3:51

Jag mindes ju doktorand tjänst

3:51

och tittar just på egentligen.

3:54

Från början var det av etik. Sen gavs möjligheten att

3:56

konstruera islam där jag sitter

4:00

och jobbar är en del av nu och

4:00

vi har jättemånga samarbeten

4:05

med akademin och då gavs den

4:05

möjlighet och jag fick fick den.

4:08

Men jag lyckades ta den. Som så många andra

4:09

hamnar jag här.

4:12

Och vad innebär det? Ska vi börja med den absolut

4:14

mest grundläggande frågan Hur

4:18

definierar vi aids i det här? Och hur definierar du oss?

4:22

Den lätta frågan börjar med match.

4:25

Det är ju grundläggande för

4:26

Ö. Ö.

4:28

nu då. Helt rätt eftersom vi aldrig

4:29

kommer att prata om samma

4:31

sak för vi har helt olika

4:31

bild på vad jag tycker.

4:34

Kan vi börja med en

4:34

dålig definition på i.

4:37

Gör det

4:38

En av de roligaste

4:38

och sämsta destinationer

4:42

jag läst om och det är

4:42

information från akademin.

4:46

Inga namn nämnda, men

4:46

där var det någon som

4:49

definierade att det ligger

4:49

hela tiden i framkant.

4:52

Man pratar om när det är fest

4:52

och liknande, liksom att saker

4:55

och ting flyttas fram och så

4:55

fort någonting blir väldigt,

4:57

tillgängligt för allmänheten,

4:57

då slutar vi, ser oss som

5:00

intelligens och då helt trillade

5:00

ur begreppet som i begreppet

5:03

liksom flyttas framåt helt,

5:03

ska alltid vara framåtlutande.

5:07

Och då var definitionen. Kortfattat von Euler

5:09

kom next en komplett.

5:12

Och då blev man säga jaha,

5:12

men hur jobbar jag med sånt?

5:16

Vad ska jag säga att jag

5:16

studerar om jag studerar då

5:20

ska jag titta på något som

5:20

finns här och nu, om det

5:23

är vad som kommer härnäst. Så det var kanske min favorit

5:25

definition på en sats.

5:28

Jävligt het men min

5:28

egen definition.

5:30

Jag tror att det finns ett. Det finns en annan bra

5:31

distinktion är socker.

5:34

Koffein gjorde det i

5:34

hennes senaste bok och

5:37

hon delade upp AI som som

5:37

dryck som ett generellt

5:40

begrepp som liksom väver

5:40

in massa olika saker i det.

5:43

Politik och ekonomi och massa olika saker. Det är liksom AI.

5:46

Men när hon pratar om specifika

5:46

placeringar och pratar om

5:49

vilka teknologier det är,

5:49

om han skildrar arboretum

5:52

eller om en specifik sport

5:52

eller någonting annat.

5:55

Det tycker jag är ganska vettigt. att man försöker vara

5:56

så konkret som möjligt

5:59

när man pratar om det.

6:00

Låter väl ganska rimligt kan jag tycka. Jag läste den här.

6:03

De har ju en på Linköpings

6:03

universitet tillsammans med

6:06

Helsingfors och reaktor Element

6:06

och den definitionen som du tog

6:11

först var ju den som de sa att

6:11

det finns många definitioner

6:14

med att följa den och det

6:14

var det som fastnade bäst.

6:16

Att det som vi det som en

6:16

dator inte kan lösa och

6:20

när den väl löser det så

6:20

flyttas gränsen och man.

6:24

Men det är sant

6:24

och det ligger ju någonting

6:26

i det, men samtidigt hopp.

6:29

Vad gör jag mer

6:29

Öppet jobbar

6:29

jag verkligen med?

6:32

Eller jobbar jag egentligen bara med data?

6:34

Då är jag ingen

6:34

forskare utan heter.

6:40

Dagens

6:40

skämt Vad är en AI?

6:42

Forskare

6:44

Ta upp

6:47

kunde inte hålla sig på att.

6:49

att det

6:49

visserligen ska på en gång

6:54

I.

6:55

Det är hög nivå nu är hög nivå.

6:57

Badförbud. men jag tror att vi kan

6:58

konstatera i att det att

7:00

det är ett otroligt svårt

7:00

begrepp att hantera.

7:04

I.

7:05

Och jag tror att om

7:05

man går ut på gatan så kommer

7:08

det få massor med olika svar. Frågan rör liksom folk att

7:10

definiera ett verktyg, en

7:13

hammare, så kommer man har

7:13

andra saker, blir arg och

7:17

fylla med nästan vad som helst.

7:19

Men vad är liksom? Vad skiljer vi från marknads

7:20

ploj och vad som faktiskt är?

7:25

På riktigt och i

7:25

indoor walking svett.

7:29

Det har blivit ännu ett vad

7:29

ska man kalla inflation på?

7:34

Folk som använder just det

7:34

här är en avi kamera eller

7:37

det här vi använder AVI för

7:37

det här är ju avi överallt

7:42

och var faktiskt avi. Och vad är egentligen

7:44

ganska simpla algoritmer som

7:47

utför någon typ av uppgift?

7:50

Så vad har vi den gränsen för?

7:52

det här är ju lite

7:52

läskigt att prata om tycker jag.

7:55

Därför att för inte så

7:55

länge sedan ni skrev.

7:57

Nu ska jag vara ärlig med

7:57

mina egna tillkortakommanden.

8:00

Inte för inte så himla

8:00

länge sedan, kanske några

8:03

månader innan GPT är slut,

8:03

så tycker jag att det verkar

8:08

som att vi är på väg in i. Jag är ju inte just av

8:09

den anledningen att.

8:12

Vi pratar mindre och mindre. Mai Det var liksom inte

8:13

lika aktuellt längre.

8:16

Det kom inga jättestora

8:16

genombrott och folk

8:19

började prata och fokusera på andra saker. De pratar om teknik.

8:23

Organisationen var nästan tillbaks. Prata, digitalisering

8:24

och liknande. Och sedan följer jag bland

8:26

annat Ett litet sanningens timme

8:30

som jag följt under väldigt

8:30

lång tid i min forskning.

8:32

Och så börjar vi prata om det

8:32

här med algoritmer och Alexa

8:35

chi eller något liknande. Och så säger liksom jag men

8:37

när var det som var bara hur

8:40

jobbar ni med mig liksom? Eller komma med det här i?

8:43

Hej! Nej det bor en

8:44

kille med killarna. Jag var

8:48

Inte den del av.

8:49

inte det. En del av mig är det

8:50

inte utan pappa är det

8:52

liksom när det är katt som

8:52

agerar utan mänsklig hand.

8:56

Barnen. Det var deras syn på det hela.

8:59

Och så tänker jag att jag har mer om var barnet redan förflyttas.

9:02

Så vi börjar prata mer om energin. Barnen i organisationen

9:04

är de med i allting annat

9:06

och då kanske är så att

9:06

begreppet håller på flyttas

9:09

framåt ytterligare en bit

9:09

så att maskininlärning

9:11

blir även om när de hjärna

9:11

som trillar ur begreppet

9:14

sen kommer att repetera

9:14

och så blir det samma ord

9:17

Aj. Men funkar det utan

9:19

mänsklig intervention i

9:24

intervention får du det.

9:26

De håller på och modifierar den

9:26

konstant för att folk lyckas

9:30

få den till att spåra ur. Allt för.

9:32

Agenter för olika

9:32

skaft och så himla mycket det.

9:35

Ja, alltså jag frågade

9:35

med lite örtsalt.

9:38

Hörs det mer än träffande

9:38

i skogen om ingen är där?

9:41

Ja, den modellen finns ju där.

9:44

Eller den kommer ju fungera

9:44

men men, den hade jag aldrig.

9:48

Den hade ju aldrig

9:48

fungerat utan all sin data.

9:50

Den datan genererad av

9:50

människor så att säga.

9:53

Den hade inte funnits men är. Nu finns den ju.

9:56

Visst, det finns ju en

10:00

Fatta. Ska vi ta ner den här nivån

10:01

lite grand och inte fortsätta

10:06

ställa upp med att gå in på

10:06

Har haft en bra teknik vecka.

10:10

Nej,

10:11

Mig

10:12

öppna enbart med det.

10:14

Ja är. Jag har ju precis då sist av

10:15

alla i världen skaffat mig.

10:19

Vilket är ett fantastiskt verktyg men det

10:19

jättelångsamt så jag har

10:23

suttit och bråkat med det. Men min största utmaning är du

10:25

lyssnade jag på ett tidigare

10:28

och ett av era tidigare avsnitt. Det är att jag har en

10:30

med Kasparov och jag

10:34

Du har det.

10:35

och jag är spelnörd.

10:38

Så att jag gillar

10:38

ju att spela spel.

10:41

Och mitt favoritspel i kosten

10:41

är ju det med brädspel.

10:50

Det tar upp

10:51

Jag hoppades vi skulle komma dit. Jättekul

10:54

det är

10:54

jättekul att stöpa

10:58

med.

10:59

ljus och uppätet,

10:59

att jag är där jag är.

11:03

Jag är spelnörd. C64 i lågstadiet och

11:05

vi började spela både

11:09

Warcraft och jag är med i.

11:11

Jag spelar

11:11

fortfarande i hjärter.

11:13

Nu hinner jag. Men jag spelar dataspel. Min man spelar mycket.

11:16

Vi spelar jättemycket brädspel med vänner. Vi tar med oss alla super

11:18

nördiga så att de håller

11:20

på med liv och skit. Men med just brädspelet i

11:22

magen vart vi så roligt.

11:29

Jag spelar med mina kollegor

11:29

och de är liksom även spridda

11:32

över Sverige och vi går in

11:32

och vi nya banor och det

11:35

är så det var och sen nu. Problemet med utmaningen är

11:37

att chatta med inte funka.

11:41

För om du skapar ett sim innan

11:41

och sedan går du in i spelet,

11:44

då har vi inte varandra som

11:44

försöker skrika fast ändå ingen

11:47

som pratar man inte samma rum

11:47

och så måste man gå över och

11:49

starta om och så måste man

11:49

space starta ett spel sakta.

11:53

Det här tog det bättre att

11:53

prata om timing för oss och jag

11:59

tänkte fråga mig om min teknik. Men jag har inte haft

12:01

så mycket ny teknik. Men det här, det här var

12:03

det här var min botten.

12:05

Och det var så min teknik vecka har faktiskt.

12:09

Jag sitter och skriver

12:09

beslut fysiskt för tillfället

12:11

och jag älskar det. Det är min största räddning.

12:15

Dessutom som dyslektiker.

12:18

Det tror jag de flesta på dagarna med. Ett. Att skriva på engelska

12:19

utan vad jag har ha.

12:23

Det går ju inte längre. Det går ju.

12:27

Men det är klart med

12:27

likhetstecken under och jag har

12:30

haft en väldigt bra vecka med. Men jag vet inte vad.

12:33

Var mer som att den är långsam.

12:34

Men det kanske att

12:34

vi har enorma dokument eller

12:37

jätte jättemånga anmärkningar och med vem är jag?

12:43

Jag är ju där i så roligt för

12:43

att jag tycker att jag sitter

12:47

och skriver på min kappa. Jag är ju i slutet

12:49

av min avhandling.

12:51

Vad alla andra liksom

12:51

har haft här hela tiden.

12:54

Och jag förstår

12:55

Ett.

12:55

att bakåtsträvande.

12:59

Då har du en uppförsbacke. för när man startar du i slutet.

13:02

Man måste ju ha lite och

13:03

Öppna upp

13:05

Byggs berget på?

13:07

för jag var här. Men jag vill också

13:09

ändra mig någonting.

13:11

Och så ska jag säga vad jag ska tänka på, för den nya meningen blev bättre.

13:15

Men vad ska jag

13:17

Men

13:17

och

13:18

har du?

13:19

som har hänt? Ska skulle tänka på

13:20

att det fruktansvärt.

13:22

du premium versionen?

13:23

Ta.

13:24

Ja, jag har ju också,

13:24

men jag har stängt av typ.

13:28

Vad är det? Det är någonting den konstant

13:28

klagar på att den sätter.

13:33

Om man skriver diss i början

13:33

på en mening typ så tycker

13:36

man att den har en okänd

13:36

man hänvisar till något

13:39

Att.

13:39

okänt. Fast den där vill jag

13:41

inte se fler gånger och då släppte den ju typ på.

13:46

Och vi har även när jag ska experimentera lite med

13:49

min.

13:50

vilka du vill. Speciellt att jobba

13:51

i Word för där är det väldigt, väldigt lätt att

13:54

Men.

13:54

Men nu kommer du att ha

13:55

en med quest prov. De är ju jätte nya med jingeln

13:58

Jo, men jag har. både en mental coach två

13:59

och en plan för att få.

14:02

Jag älskar

14:02

här Det Det var

14:05

i.

14:06

men det är för att

14:06

jag har ett sådant fantastiskt

14:09

roligt jobb, för att vi behöver

14:09

kunna sånt här och använda

14:12

oss av av den här tekniken. Och då måste du få

14:14

pröva den också. Så att min kvar i det här.

14:17

däremot har jag ju

14:17

problem att jag får inte

14:19

Sir Alex eller VR legs. Jag slutar inte må illa

14:23

så att jag använder

14:23

det för jobbet.

14:25

Vi använder det, vi har det och

14:25

liksom har konferenser och då

14:29

funkar det bra med att jag kan

14:29

ha min dator och ändå variera

14:32

ver konferensrummet och så. Men det enda spelet jag fixar

14:34

än så länge att rita av så

14:37

nära en meter är en bit.

14:41

Men det är liksom bara

14:41

hade med 17 däck så jag

14:44

har roligt och älskar det.

14:47

Men jag kan se när du sovit i det att man

14:49

sitter i samma rum.

14:52

Då förstod jag charmen. För just det här att

14:56

kunna få ihop folk och

14:58

sitta hemma och spela brädspel

15:00

vara

15:00

en grej, men inte helt enkelt för han har kompisar

15:01

som bor runt omkring och stan

15:04

som också gillar brädspel. Inte

15:06

va?

15:07

Så att

15:08

Max.

15:08

en quest är ju

15:08

det hade varit grymt.

15:11

Alltså. Det är jätteroligt. Men vi spelar mycket. Vi har ju vänner som

15:13

vi spelar mycket med. Är vi i full blom även

15:15

om vi bara fått se honom?

15:19

Nu är vi inne på

15:19

Frost tiden alltså.

15:21

Vi är. Det spelas nattvandrare

15:25

Men det är ju

15:26

det är det jag.

15:28

Men jag fattar inte varför du flyttar in det i

15:30

Ja och

15:31

och du har ändå bra argument och

15:32

asså det är jätte

15:32

jättebra men kolla om det går.

15:37

Det går inte att jämföra med de

15:37

här riktigt stora tunga spelen

15:40

som gummiband. Men men det är fortfarande

15:42

en charm i den.

15:45

Alla dessa pluppar och grenar. Man måste hålla reda på allting annat

15:46

för att bli av med i spelet.

15:50

upphör.

15:53

Så det enda jag behöver göra är ett fönster och så kan man zooma in.

15:56

Så kan barn liksom på brädet där

15:56

jag ser mig, min gubbe gå fram.

15:59

Jag får alltid spela tanken

15:59

så liksom när jag går in

16:02

där och sätter igång och

16:02

aktiverar denna massa.

16:05

Är inte så roligt. Så det Så det är så löjligt roligt så jag

16:08

spelar det faktiskt ibland

16:11

själv och sköter alla.

16:13

Sju.

16:14

Men det är

16:14

ändå en fråga som känns

16:16

glödhet ändå. Det

16:18

ja var?

16:19

Ska vi gå in på de

16:19

nyheterna vi har med oss?

16:23

Och så kan vi avsluta med ännu mer jobbiga frågor sedan när vi

16:25

har lite mer vi har pratat om.

16:29

stort.

16:30

Vi börjar med den första och

16:31

det är att Spotify i sex

16:33

veckor har släppt en AI

16:33

i tid som vi kallar det.

16:37

Och jag tycker

16:37

att det är en sak.

16:42

Men kollar man lite närmare på det så verkar som

16:44

att de har tagit sina rekommendationer som de redan

16:46

har med sin rapport och sina

16:48

rekommendationer.

16:50

Hon slår den på vad de gillar

16:50

för låtar, vilket kanske är

16:54

vet jag inte men sen så har hon

16:54

satt in att man lägger in en

16:59

genererad röst på detta som då

16:59

ska vara byggd för dig utifrån

17:04

vad du tycker och tycker. Men när man läser Times

17:05

version i deras editor

17:08

så har din och jag mer

17:08

kopplat lite koppling mot.

17:12

Vissa arrangörer är det

17:12

ändå som använder sig av.

17:16

så har du nått så långt efter förra

17:16

året så inte så nyttigt Som

17:19

är ett AI som genererar röster.

17:23

Grey en titel

17:24

är vi lärare av något slag.

17:26

som kombinerar det här med opera. Jag har kört KBT och på så

17:31

sätt kan leverera en studie som

17:33

pratar med. dig. Och jag tycker att det

17:34

känns jätte onödigt.

17:36

Jag vill inte att de pratar en hel del musik.

17:39

Jag tycker det är bättre att man bara får lyssna musik som är

17:42

lite klippt ihop och som man får

17:44

visa på sköna transitions.

17:46

Men att höra som du

17:46

pratar om att du skulle

17:49

få en go ton från när

17:49

du var ung och det var

17:52

sommar, nej tack.

17:56

Men det låter ju som

17:56

nån slags grej till deras råd.

18:01

För de har ju den här radio funktionen som också ska mixas med låtar från all

18:03

världens låtar och matcha

18:07

dem med din musiksmak. Men att de då har gjort en

18:08

enda röst som baseras på öppen?

18:12

Är jag kört GPT på nåt sätt

18:12

och så ska den läsa upp roliga

18:16

klipp emellan så att det

18:16

ska bli lite radio feeling.

18:18

Jag såg någon på Tick tock

18:22

som berättar att den finns bara i USA,

18:24

Kanada än så länge och därmed

18:27

den här hösten var. Inte naturlig.

18:29

Den var väldigt knepig

18:32

och den tillför ingenting. Och det här med att vara haft

18:34

klippningar eller transitions

18:37

mellan låtarna är inget nytt. Det har vi haft tidigare

18:38

på andra sätt, så jag

18:41

förstår inte varför de ska ha en attityd.

18:43

Det är jättemärkligt

18:45

Men då är ju frågan

18:46

det aliens eller Idag är

18:47

är det en avsky

18:47

i sig eller är det ett

18:52

inlärnings algoritm?

18:54

Vi har faktiskt värde. Detta är ett sätt

18:56

att nå Italien.

18:59

Nej, jag vet, jag kan

18:59

ingenting om sport i Paris nya.

19:02

Jag vet ju att jag kanske

19:02

önskar lite mer av deras

19:05

algoritmer än när det kommer

19:05

den här veckans från Lisas och

19:10

idag är ju liksom lite av en

19:10

höjdpunkt hemma i våran familj.

19:14

Men eftersom vi är fyra som

19:14

som spelar musik i bilen så

19:19

har man delar man i konto. Det är bara en som är kopplad.

19:22

Det kan inte vara så lätt

19:22

att byta mellan konton och

19:24

också hemma på Sonos är inte

19:24

alltid så lätt att byta.

19:27

Så får jag alltså mina

19:27

barns musik av min mamma.

19:32

Han finns, Hon ser grejer också

19:32

och det är en av grejerna.

19:36

Men absolut, jag gillar det.

19:38

Jag gillade också crust punk,

19:38

men kanske inte fullt så mycket

19:41

som min dotter om vi säger.

19:44

Öppet, rimligt, rimligt.

19:47

Men de lanserade

19:47

då och då missat.

19:50

Men de har lanserat en

19:50

funktion som man kan undanta

19:52

hela spellistor från deras

19:52

rekommendation system.

19:58

Var.

19:59

Så väl om det jag har lärt ut i Sverige. Jag har faktiskt provat det,

20:02

men det var en nyhet för

20:03

ett par veckor sen. Men vill man ha en AI röst

20:04

som analyserar alla låtar?

20:09

Hej, nu kommer det musik

20:09

från nu, nu kommer jag.

20:12

Jag släppte Spotify. Jag tjuven

20:14

du kan nåt annat. Men vill man vill man

20:17

ha en video som bara.

20:21

Hej! Här kommer låtar från

20:21

när du gick i högstadiet.

20:26

Det känns som att du är på

20:26

en nostalgisk resa just nu.

20:30

Aww. Nej jag vet.

20:34

Men kan man konversera med den? Kan man prata med

20:37

nej. nej, nej. Det är mer som

20:38

det är, mer som en

20:41

För det finns fler fördelar. Liksom om man går om

20:42

man lyssnar på en roll i

20:45

Sverige idag till exempel. Om den här låten är

20:46

faktiskt ett bra band.

20:49

Detta ska man fråga om en konversation och få reda på något.

20:53

Det skulle jag. Men att någon kommer

20:54

och pratar med mig ses som en nostalgisk resa.

20:58

Låt mig öppna den

20:58

här ljudfilen åt mig.

21:03

Mest har jag tänkt

21:03

att jag efter.

21:06

Nej, jag känner detsamma.

21:08

Och visst, jag har provat den men

21:09

inte att jag känner att jag vill ha det så.

21:12

Kan se som syftet i denna är

21:12

att man ska kunna styra sitt mod

21:18

efter som tidigare

21:18

kunnat trycka på knapp

21:21

och säga men nu vill jag ha mer

21:21

som aptit när jag redan bytt.

21:24

Nu vill jag ha det här

21:24

modet och det kan jag se.

21:28

Syftet är att man slipper byta

21:28

spellista, att man har en.

21:31

Genomströmning av musik som

21:31

man kan ändra utifrån vad man

21:34

håller på med eller vad man är sugen på och som man kan. Tråkigt att han

21:36

också lär sig mer om dig själv då och det

21:39

finns ju för och nackdelar med, men det hade ju varit en fördel av det.

21:42

Men det här med snackande rösten det en

21:45

Torkel tack så fort det bara går.

21:48

Kvar.

21:49

Men då har du väl bara

21:49

den vanliga radio för mig och du

21:53

kan välja bit och liknande då.

21:55

Ja möjligtvis inte

21:57

Frågan är om det här

21:57

är Spotifys första steg att

21:59

ta jobbet från riktiga Digest. Ett uppe i usa parti mod

22:03

att denna app är öppet

22:12

sport.

22:14

Jag. tror vi användes på

22:14

två väldigt olika sätt.

22:16

Ja, nu man får den här

22:16

analysen i slutet av varje år.

22:22

Jag hade tröjan över

22:22

60 000 lyssnande timme.

22:25

Jag lyssnar ju fransar,

22:25

jag lyssnar konstant.

22:28

Men jag lyssnar när jag jobbar. Jag skulle inte klara av att

22:30

någon kommer in och pratar

22:32

med mig då jag sitter där. Ska precis formulera den

22:33

här meningen eller tänka på

22:36

nästa steg och så kommer de

22:36

och ba men nu är det vecka.

22:39

Det verkar softa idag. Bara att sitta hemma.

22:42

Mest lyssna på det här

22:42

med för det funkar inte.

22:46

Men men är absolut så. Håller du på och lyssnar och

22:47

red för att ut och tränar eller?

22:51

Pendlaren.

22:52

då vill man ju inte tappa bytet tänker jag. Om man då tränar.

22:55

hon har någon som pratar med ett bits

22:58

Kämpa för backen.

23:00

uppåt

23:01

En kombination mellan

23:01

Spotifys AI, Diddy och Strava

23:06

nu? Nej, nej, nej. Nu

23:09

lägger vi locket på här. Gå vidare och ta nästa

23:13

Nästa. Vi har ju varit inne på det lite,

23:15

men köttbiten har ju

23:15

kommit in i bilden på

23:20

sätt och vis med en liten dummare variant enligt mig.

23:24

Och. De har gjort ett

23:25

test och jag har inte pratat så mycket om vad

23:26

de använt, men de har använt

23:30

Cove disc information enligt dem

23:30

som är skriven av kött tribute

23:35

som de sedan efterfrågar

23:35

genom bingo saken

23:38

och att den då skriver om

23:38

detta utifrån och sätter

23:40

betyg och skriver ut. Och det som blir det läbbiga här

23:44

är ju att då blir det AI som tränas på och som

23:47

skriver tillbaka. Det som har jag skrivit, vilket är

23:51

enligt mig generar tid, tjat och gynnar inte

23:53

vari de största problemen. Att vi kommer hamna i en

23:55

ond spiral när alla har

23:59

en tränare och ingen vet

23:59

vad som är riktigt och

24:02

är skitsnyggt hur du kan göra. Det här är precis precis

24:03

det jag har kämpat då.

24:06

Och ja, mitt jätteproblem.

24:09

Och i den här har man märkt att då

24:11

väljer man ta skriven text

24:14

utifrån en person som var väldigt kritisk mot

24:17

också en så stor

24:17

massa disskusion.

24:20

Och sen så har vi kört repeterat, bakat

24:20

som om det vore fakta eller

24:24

blanketter på det. Och det är ju så du visst,

24:26

du får tycka vad man vill om

24:30

vi då desinformationen runt

24:30

den, men det är ju inte det

24:32

enda ämnet som skulle kunna

24:32

bli problem när man gör så.

24:35

Och jag tycker man ska hantera det och det bör man kontrollera för

24:38

mycket. Då blir det helt plötsligt. Då finns inget syfte.

24:41

Har satt det enklare för då blir det ju för kontrollerat och.

24:46

Man kan också då ha ett

24:46

företag som väljer och inte

24:49

väljer vilken information som

24:49

ska släppas ut till folket.

24:52

Det är också läbbigt. Nu pratar jag och andra även

24:55

Ja, det är

24:55

vi ju inte här inne.

24:58

Men det är jätteviktiga saker

24:58

du tar upp och där är vi liksom.

25:01

Kanske det som inte så

25:01

många hunnit tänka på.

25:04

Jag brukar, brukar det

25:04

låta som att jag inte hängt

25:07

med på GPT förra året. Men jag har vid ett antal

25:09

tillfällen försökt förklara

25:11

lite som att det nu speglar

25:11

dig i din egen data någonstans.

25:15

När du skriver in och begär någonting och så får du någonting tillbaka.

25:18

Jag har sett det här

25:18

så marknadsför folk på

25:21

LinkedIn som om jag ställt

25:21

den frågan till köket.

25:24

T om vem är det bästa

25:24

företaget eller det liksom?

25:27

Och så får man tillbaks bilen själv och det känns så stort och smått.

25:30

Idag så vill man gärna lita

25:30

på det och känna om just

25:35

det

25:35

Visst gör det

25:38

med modifikation. Men problemet kvarstår ju

25:39

liksom lite grann att som

25:42

du frågar får du svar. Och om man inte förstår vad det

25:43

är, vad och vart man frågar så

25:49

kan man inte se det här datat. Vad är data träning?

25:51

Så vad är data som ligger bakom? Och om jag frågar speciellt

25:53

bara om ett företag.

25:56

Är det ett pyttelitet företag

25:56

så kanske det finns mycket text

25:58

om det och då hämta in den text

25:58

som finns om det Och allting

26:01

kan bli helt galet tokigt om jag

26:01

sätter det journalister andra

26:03

som har skrivit om det här. det var bingo i det här fallet

26:05

hittade på massa olika saker.

26:08

men, om du säger bara det

26:08

här positiva, då kan det ju

26:11

vara så att det är så att när

26:11

majoriteten av information som

26:14

finns om det här företaget. Det har jag själv publicerat.

26:17

Eller när företaget själva publicerat. Men då återskapade ju bara

26:19

det jag själv vill vill

26:22

förmedla av mig själv. Så ni som någon form av att man

26:23

speglar sig själv i sin data.

26:27

Det var egentligen min stora

26:27

käpphäst också, som jag ser i

26:30

min forskning, att vi har för

26:30

låg kunskap om data och vad data

26:35

är och vad data kommer in och

26:35

hur man använder sig av data.

26:38

Och att vi jag också

26:38

genererar data.

26:41

Data är ju inte något så

26:41

det som finns där ute som

26:43

man, det är inte olja. Det är.

26:46

En resurs som vi alla har

26:46

bidragit till med alla

26:49

våra tillkortakommanden. Och det är väl det som är lite

26:50

problem med SAT, DPT och BIM

26:55

är ju att att väldigt många

26:55

människor kanske inte har

26:58

koll riktigt på vad är det

26:58

här för data som ligger bakom

27:01

och vad har den att tjäna det? Om vi hade det så skulle vi

27:02

och kanske också bättre förstå

27:05

vad det är vi får tillbaka. Det är inte en intelligent

27:07

varelse som sitter där och

27:09

har känslor och vill bryta

27:09

sig ut ur företaget eller

27:14

vill övertyga oss om att

27:14

det är 20, 22, inte 20 utan

27:18

det är liksom all statistik kan man se.

27:22

Arrangörerna Bingo och vi

27:24

De tar min hobby, travar

27:24

lite till och pratar om det.

27:29

Jag har en fråga som ställts

27:29

ena dagen, men den kommer in då.

27:32

Nu ska alla tillgång ta om

27:33

inte för det sitter

27:35

ändå du med din bakgrund

27:35

och vi med det vi kan och vi

27:39

sätter och vet inte ens vad

27:39

vi är ska ska gilla generella.

27:48

Vi får väl vara överens om att vi vet

27:49

någorlunda var vi har någorlunda

27:53

jag är lite

27:53

lite på dubbel sida här.

27:55

Vem är jag att öppet

28:01

I

28:02

och

28:03

kredibilitet i alla fall. När ska alla då ha tillgång

28:09

till AI på det sätt som Djibouti är

28:11

uppbyggt och så

28:11

lättillgängligt som de uppnått?

28:15

Vad är det? 100 miljoner användare på mindre än två månader.

28:18

Det säger ju en del om hur fort det växer och det är

28:20

alla väl, alla möjliga människor och.

28:23

Så få människor förstår

28:24

vad data är som och skall ha

28:27

tillgång till och. ska alla kunna få

28:28

ta emot och utan att

28:31

veta vad det är och inte

28:31

är eller finns förrän

28:35

nu? Är det riktigt så man som

28:35

säga ja eller nej men.

28:39

Nu. Ja, jag är nog fel person att

28:39

säga att vi ska reglera det

28:44

så att bara vissa människor

28:44

ska få tillgång till.

28:46

Jag tror däremot att det

28:46

ligger mer i att vi ska reglera

28:51

det så att vi ser till att

28:51

vi utvecklar ansvarsfullt.

28:55

För jag tror inte på det här, att vissa ska ha det, andra ska inte ha.

28:59

Sen så tror jag att det

28:59

finns ett jättestort behov

29:01

av oss i olika samhällen

29:01

att att utbilda barn.

29:05

Jag vill gärna se att vi börjar

29:05

prata om redan i grundskolan.

29:09

Vad är data och algoritmer som

29:09

det inom samhällskunskapen?

29:12

Faktiskt inte matten utan

29:12

att det här liksom vad

29:15

kommer algoritmer in? Vad är det som gör att jag

29:16

får se vissa saker på Netflix

29:19

och inte på rekommendationer

29:19

om andra heller?

29:21

Först efter att mammas

29:21

spotifylista fylld

29:26

med grönt varje dag. Dags att

29:28

Öppet

29:30

värma det. Men det är mycket viktiga,

29:30

viktiga delar I I våran

29:36

Du. Det är lite som du säger. På tal om vad man matar

29:37

in det man får tillbaka.

29:40

För så är det ju delvis på sociala medier

29:41

och allt mer som att din

29:45

algoritm är byggd utifrån det. Ju så som du är på

29:47

sociala medier och Då

29:50

får du bara. information som bekräftar det

29:50

som du själv tycker oftast.

29:54

Sen kan man göra som mig och

29:54

försöka gå emot det så mycket jag möjligt bara

29:57

går och skapa en annan bild.

30:00

Det håller bara några

30:00

veckor så lär sig algoritmen

30:02

ni använder jag stråket

30:02

för att kunna det också.

30:05

Men samma sak man skulle prata med en

30:07

AI så kommer du. Oavsett vem du är så kommer du

30:09

alltid lysa igenom att du är du

30:13

och det är lite där man kan se

30:13

på en författare om uppfattar

30:16

en viss författare som väljer

30:16

vissa ord eller väljer vissa

30:19

språkval eller funderingar och.

30:22

En på ett sätt att acceptera

30:22

den kopplingen och hans

30:25

ord med ord och gutt Och

30:27

bra kan bara betyda bra Men

30:29

det har helt olika innebörd

30:29

på vad de får tillbaka.

30:32

Nu är ett bra exempel, men ni förstår, Jag menar,

30:35

En.

30:36

Bit

30:36

tror väl det är en stor grej och man ska förstå då att det inte

30:40

bara är att det som du säger, det är inte

30:41

bara att du ställer en

30:44

fråga, det är också lite vilka ord du väljer. Du ställa frågan vad?

30:47

Som du frågar får du svar. En lek som man måste ha men

30:48

också komma ihåg att det jag

30:52

föder in till A är också data

30:52

som bestämmer vilken annan

30:57

data som ska användas för att

30:57

generera ett svar till mig.

31:01

Det var någon som sa till mig

31:01

och jag kommer ihåg vem det var

31:03

men jag tyckte var så roligt

31:03

att det här med det vi håller på

31:05

med nu, det är egentligen på det

31:05

det inte kallas av en det borde

31:09

kallas experimentell statistik.

31:11

Jag tyckte det var

31:12

Oj, det är

31:12

ändå en jag aldrig tänkt

31:15

på och på det sättet. Men det är faktiskt en

31:16

förvånansvärt logisk.

31:19

Parallellt.

31:19

Jag vet inte om jag

31:19

kan stå för vad jag tycker.

31:22

En ganska rolig,

31:22

rolig iakttagelse.

31:25

Absolut. Men okej.

31:28

Men om vi ska fiska tillbaka

31:28

lite till vad vi började

31:32

och mata sin egen Ari, vad

31:32

händer då om vi då kastar in

31:37

tvn i byx på datan Bieber?

31:41

Och om vi ger den en sne data?

31:44

Som kanske inte tar med

31:44

alla perspektiv eller

31:47

som inte är tillräckligt

31:47

diversifierad och sedan.

31:50

Dag A inför. Det finns inte en risk att det

31:52

blir en lavinartad utveckling

31:57

i och som hamnar i ännu ett

31:57

extrem läge i andra änden.

32:02

Men det var inte det du sa Ruben. Det blev som en spiral effekt.

32:06

Det är vad jag tror också det. Inte det här att om vi använder

32:08

de här verktygen nu för att

32:12

generera massa nya blogginlägg,

32:12

shirts och allt annat vad vi

32:16

kan tänka oss titta på och sen

32:16

så använder vi oss av som data

32:20

till att träna nya algoritmer. Det finns ju ingen kodning idag

32:22

att inte koda mitt blogginlägg

32:26

eller vad det här har genererat. Så det kommer ut som inte går

32:28

riktigt att filtrera bort.

32:31

Vad jag vet är kanske de

32:31

som är riktigt duktiga.

32:33

Det här kan jag berätta, men

32:33

det betyder att vi får in mer

32:37

och mer data genererad eller

32:37

genererad data i våra algoritmer

32:42

och sedan vilken effekt det har. Ja, jag tror också att

32:44

det finns en stor risk

32:47

för en spiral effekten.

32:48

I.

32:49

Åh. Då går vi vidare till

32:50

Snapchat för Snapchat har

32:53

också introducerat en chat

32:53

robot baserad på chat epitet

32:58

men en barnvänlig version. Hur?

33:03

Hur ska vi utbilda barn då?

33:05

Ska vi låta barn ta del av?

33:08

Det är klart att barn ska ha en del. Det återvända man.

33:11

Vi kommer inte alltid ha en miniräknare i fickan. De kommer vara experter på

33:13

hur de här grejerna funkar.

33:16

Långt, långt innan. Antagligen vi

33:17

kommer att vara det. Men hur ser man till att det

33:18

är en barnvänlig situation inom

33:23

citationstecken som inte förde

33:23

på farliga ideal och liknande?

33:28

Och vem bestämmer vad som är farligt? Därmed.

33:33

Det är tydligt det som jag tycker är på gott

33:37

och ont. Snapchat har gjort en egen

33:37

version för deras användare och

33:40

där får de göra vad de vill. Skillnaden tycker jag mot

33:42

den som till exempel Bingo

33:45

gjort och likt riktiga TBT.

33:47

Det är väl att Snapchat verkar som om de?

33:49

blockar rätt mycket. Vad som inte är okej och

33:54

de vill att jag ska se är

33:54

nog stor banner, barnvänlig

33:58

version och stabilitet.

34:02

Vad är syftet då? För då blir avskalad

34:03

på sådan stor nivå?

34:06

Kommer den sen att ge dig

34:06

någonting och vad ska du

34:10

ha om man säger som min? Bestämt utifrån att

34:13

företag vill att du ska och inte ska kunna söka efter.

34:17

Då blir det ju helt plötsligt

34:17

Kan du kan de också styra

34:20

vad de får för svar. Kan du hjälpa? Nu tror jag ändå att Snapchat

34:23

är så pass schyssta på.

34:25

Som bolag med ett bolag att

34:25

de inte gör som puttar in

34:29

att du ska mata folk med

34:29

politiska ideologier och

34:33

tankar. Idéer om hur samhället ska vara alltså med allt.

34:35

Men i teorin så skulle de kunna göra det.

34:38

Just nu är det bara. en test variant som är bland

34:39

dess betalande användare,

34:42

men sätter de ute till sen

34:42

är det nog miljoner användare

34:46

och får börja använda det. Då är det ju Vi kan vara dåligt.

34:51

Ja, absolut.

34:52

jag tänker inte uttala

34:52

mig om det är bra eller dåligt.

34:55

Jag kan ingenting om snaps eller

34:55

snaps där bland nära i botten.

34:59

Men däremot så tänkte jag

34:59

ju att jag är två tjejer som

35:02

12 år hon som är tolv

35:02

tillhör alltså generation Alfa.

35:06

Skönheten är i yngsta generationen.

35:09

Och jag är så sjukt

35:09

nyfiken på hur hon kommer

35:13

att navigera av båda två. Hur hon kommer att

35:14

navigera sin omvärld om

35:17

hon växer upp med det här. Om det finns en som är tillbaka

35:19

i sinnet redan nu och även

35:23

om den är kontrollerad och

35:23

begränsad kan man förstå den

35:26

träningen och inlärningen och

35:26

av att kunna kommunicera så.

35:29

På det sättet med våra

35:31

digitala verktyg. det är ju det man går och

35:32

funderar på vad som kommer hända

35:36

härnäst och hur de kommer gå. Jag brukar vara en gammel

35:38

generationen med kommer jag

35:40

aldrig kunna förstå vad de var.

35:43

De har inte ni heller faktiskt. Fördelen med att

35:46

öppet.

35:47

precis säga dig att du är nog den

35:49

Öppet. Det tycker jag är hur

35:51

häftigt som helst.

35:55

Absolut. Vi måste pratar ansvarsfull

35:56

teknologi, ansvarsfull

35:59

användning, utveckling. Det kommer och går, men det

36:00

finns behov av reglering.

36:04

Det kommer reglering. Det är självklart.

36:07

Men ändå tänker. Tänk skillnaden på de som

36:09

och de som kanske inte är,

36:12

liksom vad som är smort. Spädes då.

36:15

En.

36:15

Vilka ämnen liksom? Helt annat sätt att hantera

36:17

och interagera med teknik.

36:20

För att vara någon

36:20

som studerar fortfarande och

36:24

har sett denna under mitt sista

36:24

år så att jag dyker in och hur

36:28

det har ändrat hur studenterna

36:28

runt mig pluggar så skulle

36:32

jag vilja se hur utbildningen

36:32

kommer se ut om några år när

36:36

man måste ta hänsyn till. Den här typen av av

36:38

hjälpmedel för det system vi

36:42

har idag är inte hållbart. Det kommer inte funka för det

36:43

kommer inte testa rätt saker.

36:47

När trottoaren är

36:47

viktigt på lite olika sätt och

36:50

hanterar där det finns lite

36:50

nödlösningar som ligger nära

36:53

i tiden med till exempel att

36:53

någon på tentan frågar frågar

36:56

om negationer i stället att

36:56

det bara var det som inte

37:00

hände det här året eller genom

37:00

det, för det är svårare att

37:03

få ut samma vettiga svar. Det bästa jag hörde då

37:05

kom faktiskt de podd

37:08

jag lyssnade på idag. Det tyckte jag var

37:09

väldigt insiktsfullt.

37:12

Det är att du kan göra

37:12

tenta fråga som läsare

37:14

fråga sagt GPT om det här.

37:18

Vi redovisa svaret

37:18

och sedan förbättrade.

37:20

WHO.

37:21

Det är snyggt. För då handlar det om att

37:22

kunna analysera texten,

37:24

identifiera val liksom vad

37:24

man kan lägga till, förbättra

37:28

vad det var som är fel. Det finns ju de

37:30

som hallucinerar.

37:32

Hur ligger det till? Det kanske inte existerar.

37:35

Du behöver ha koll för att kunna identifiera dig själv.

37:38

Jag tyckte det var ett jäkligt smart sätt. Jo, men självklart kommer

37:40

det här bli en del av hur vi

37:44

numera har det i skolan och

37:44

hur man sköter undervisningen.

37:47

Men vi lär oss ju.

37:48

Det låter som han

37:48

mörkats bra, eller hur?

37:50

Han brukade ju köpa

37:50

sitt kontor nu.

37:54

Skriv in en fråga i

37:54

GPT och hitta felet.

37:56

Typ vilken är de bästa

37:56

mobil kamerorna just nu?

38:01

Och då har de en tävling

38:01

om vem som kan hitta

38:03

flest fel i Vasaskeppet.

38:05

De spottar ut och det

38:05

brukar generellt sett ut.

38:08

Hyfsat rätt saker, men det

38:08

kan ju vara till exempel att

38:12

megapixel antalet är fel på

38:12

en kamera eller det de har.

38:15

Den har angivit fel kamera

38:15

sensor på vilken kamera som

38:18

sitter i en iFån eller liknande. Men det låter ju som en

38:20

liknande grej då att. Stoppa in kött, repetera och

38:22

korrigera och gör det bättre.

38:26

har

38:27

Men jag kan ju ibland

38:27

tycka att det är jag, så jag

38:29

får anta att greppet är så pass

38:29

bra så jag vet inte riktigt

38:31

hur jag ska förbättra det. Jag direkt fel går ju

38:33

lätt att korrigera.

38:36

valt att.

38:37

Men ja, den är

38:37

ju bra på att skriva text.

38:40

men jag tänker

38:40

som jag som då med ett tag.

38:44

Det var ju samma diskussion

38:44

här när Wikipedia kom.

38:50

Panik panik för barnen. Alla som studerar kommer bara

38:52

ta information från Wikipedia,

38:56

men vi måste se det också. Wikipedia finns kvar.

38:58

Folk använder sig av

38:58

Wikipedia, men det är

39:01

väldigt få som skriver in

39:01

det som referens Wikipedia.

39:04

Och är det så att man gör

39:04

det så har man oftast flera.

39:07

Kändes som visa på bio eller något

39:09

Samma sak som. Det där känns som

39:11

en mer lavinartad.

39:13

Nu vet jag i och för sig

39:13

väldigt ogärna Wikipedia.

39:18

Jag kommer inte ens ihåg när det kom, så jag missade

39:20

Att.

39:21

det. Men det här var ju

39:22

inte riktigt det.

39:25

Både panik och förtjusning

39:25

känns det som från många olika.

39:29

För det är ju x antal olika.

39:33

Organisationer med organisationer, organisationer med sektorer som kände sig

39:35

liksom lite lurade i utbildning.

39:39

De rekryterare som känner

39:39

att personer får CV skrivna

39:45

personliga brev skrivna. Det är liksom man kan använda

39:46

det för att göra kod och

39:50

få den till det på riktigt. Utvecklar lättare

39:51

virus i sig, men är.

39:57

Och du kan använda den

39:57

för att skriva meddelanden

40:00

på hem dejting appar

40:00

som är också märkligt.

40:05

Men det kommer påverka så

40:05

många delar i samhället och

40:07

det är många som säger det

40:07

här är en övergående fas.

40:12

Kommer folk vänja sig tror du? Eller är det liksom?

40:16

Kommer man sätta sig på tvären

40:16

eller hur kommer det se ut?

40:19

jättebra fråga. Jag kan bara gissa

40:20

utifrån mig själv.

40:23

Jag tror att man vänjer

40:23

sig när man är 17.

40:25

Det och det har du tagit från

40:25

medeltiden, inte slängt in den

40:29

personen hade haft jättestora

40:29

problem att hantera och ens

40:32

föreslå för som förstå vad

40:32

vi vad vi håller på med.

40:35

Men om man är nämnd

40:35

bekräftade vi vänjas

40:38

Ett.

40:39

klart. Sen så som alla vet är

40:40

utveckling det klart det

40:44

är det gropar i vägen. försöker tänka efter

40:46

lite innan och inte

40:48

bara springa på allting. Det här är processen

40:50

med det blir baklänges.

40:54

För att.

40:55

klubben förbi. Vi behöver kanske

40:58

också stanna upp. Får vi göra det igen?

41:01

Men vad är det? Vad är de största riskerna

41:01

du ser med så vid tillgång på

41:05

till exempel kött eller AI? Finns några specifika

41:07

risker du ser eller.

41:10

det är klart att det finns risker. Jag sitter och

41:11

tänker på det jag. På en dag i 2019

41:13

så publicerade vi.

41:16

Vi gjorde en studie tillsammans

41:16

med Novus och tittade på

41:19

Svenskarna och internet

41:19

och frågade dessa frågor.

41:22

Detta görs. Innan showen är så frågade

41:23

vi frågor i stil med.

41:27

Tänk dig att året är 2030

41:27

och Arne slagit in och

41:30

slagit igenom på bred front. Vad tror du kommer bli liksom?

41:34

Effekten på till

41:34

exempel demokrati.

41:37

Och så var det liksom att vi

41:37

kommer med mindre eller sämre,

41:40

är rotade inom demokrati eller

41:40

vi kan bättre stärka demokrati.

41:45

Eller vi kommer ha mer internet

41:45

eller från dag ett mobilen

41:50

eller vi kommer ha mer. Så fick man en sju

41:52

gradig skala då och.

41:55

Jag tänker på det som var. Vad dök upp där.

41:58

Många tyckte nog att

41:58

de såg att det skulle

42:00

vara mer internet brott. Jag tror att om jag kommer

42:02

ihåg rätt så var det också att

42:05

man fanns en typ fem på fem.

42:07

Men någonting liknande

42:07

som trodde att det att

42:10

demokratin var utsatt. Men just det som var var

42:12

en falsk information var

42:15

också en som verkligen slog

42:15

igenom i den här studien.

42:18

Det finns säkert på

42:18

någons hemsida och hämta

42:20

ifall man intresserad. Och där tror jag väl egentligen.

42:24

En av de stora Hur

42:24

utmaningarna framöver?

42:26

Hur? Hur hanterar vi all denna

42:27

information som nu kommer

42:30

komma travandes och hur får vi

42:30

hjälp att kunna navigera i det?

42:35

det är en utmaning. Det finns säkert, eller det

42:37

finns väldigt många fler,

42:39

men just när, var, vad är

42:39

liksom falsk information?

42:42

Vad är information

42:43

Jag.

42:43

hur hanterar vi det?

42:45

Nej, vad tänkte jag? Falsk information är ju en bit

42:46

liksom att du skapar information

42:51

och det finns något annat som

42:51

du ska bortse från och bete

42:56

sig som att du chattar och

42:56

skapar data i skriven text.

43:01

Finns nån annan AI som ser den

43:01

närmsta tiden som kommer vara så

43:07

när tillgänglig för oss normala?

43:10

Om du bara ser vissa

43:10

vilt och självklart män.

43:14

Men om jag ska

43:14

komma med dissas det.

43:16

Next big. Nej, det kan jag ju inte. Hade jag varit rik.

43:21

men jag kan säga en sak. En rolig grej är att

43:22

du kom på en trend som jag hade för

43:24

ganska många år sedan. Men jag tycker fortfarande

43:26

det var de roligaste,

43:29

någonting som vi kallade

43:29

för mentor och bisittare.

43:34

Det var så jag tänkte,

43:34

för då var det liksom.

43:38

På den tiden var det väldigt

43:38

mycket snack om Alexa och

43:40

Siri och när Google Assistent

43:40

hade de här bitarna och så

43:45

funderade vi lite längre på

43:45

vart båten är på väg någonstans.

43:49

Jo, men tänk dig liksom. Precis som vi har bilen och

43:50

vi har rulltrappor och vi

43:54

har byggt massa teknologi som

43:54

kan förenkla livet för oss.

43:58

Bli smidigare, bli skönare att. Med fjärrkontroll till

44:01

TVn så du slipper bli arg.

44:03

Varje gång du ska byta

44:03

kanal är det ganska

44:06

mycket trevliga saker. Men om du får en assistent

44:08

som kan hjälpa dig att

44:12

ta reda på allting. Som kan svara på

44:14

frågor till exempel. Jag ska nu bjuda Ruben Andreas

44:16

på middag och jag känner

44:20

inte jag så jag vet inte

44:20

vad ni var för mat eller om

44:22

jag lärde sig om någonting. Telefonen ringer så att jag

44:23

blir överraskad så jag kan

44:27

bara fråga mig och så får

44:27

jag liksom ett recept som

44:30

ni båda kommer att älska. En om inte någon assistent

44:32

frågar mig om jag fått

44:35

detta jobberbjudande. Ett. Kan det baserat på informationen

44:36

här företagen eller något annat

44:39

bra hjälpa mig att ta beslut om

44:39

jag ska klara jobbet eller inte?

44:43

Och baserat på mig och min

44:43

kompetens och hur länge

44:45

jag jobbat hos mig eller

44:45

vilka skolor jag ska gå i.

44:49

Eller vilket parti

44:49

de ska rösta på.

44:51

Då är det partiprogrammen

44:51

och den assistenten vet ju

44:53

allting om mig redan, om

44:53

mina förutsättningar, min lön

44:56

och mitt område jag bor i. När slutar jag fråga

44:59

den här assistenten?

45:03

När slutar jag liksom även här?

45:06

Ska tänka själv. När finns den där

45:08

tillgänglig för dig?

45:11

Det kommer vara helt

45:11

omöjligt att inte fråga.

45:14

Och då någonstans börjar vi. Tänk. Men vad händer då med människor?

45:17

Det kan ju bli så här till slut. Om man slutar analysera,

45:18

tänka efter, reflektera

45:23

över saker och ting man har

45:23

frågar så finns svaret där.

45:26

Vi är någon form av och

45:26

en form av och bi kallar

45:29

vi det, liksom allt annat. Så frågade vi konsumenter runt

45:31

om i världen om vad liksom

45:35

de är intresserade eller

45:35

vad man kan tänka sig och

45:37

göra åt det här i framtiden. Som att det finns.

45:40

Hon såg till att inkassera och

45:40

bocka av framtida mentala gym.

45:43

Precis som vi går på gymmet

45:43

och tränar för att vi inte

45:45

får normal vardagsrum. Motion ska man inte behöva lära

45:47

sig att läsa för att göra den

45:52

logiska testen någonting annat.

45:56

Men det tycker jag nästan redan är en verklighet

45:58

i viss mån med god

46:00

hjälp. Det är ju väldigt troligt att matvaror som har

46:03

en sådan risk är skitjobbigt.

46:07

Men att. Många samtal dör ju

46:11

av att man googlar googlade. Jag försöker

46:15

ju ofta. Inte alltid, självklart inte. Men

46:17

säg det med godkänt. Låt oss diskutera och

46:18

se ifall som det bara

46:21

går eller är tråkigt. Självklart vissa rena fakta

46:22

grejer om det kan vara good luck

46:27

med mer saker så inte

46:27

bara svartvita som det

46:31

var så svartvitt annars. Men det är roligare att prata

46:32

om än att googla fram i viss mån

46:37

Ja.

46:38

och det tror att det är det du gjorde. Söker efter svar och du tänker

46:40

att du själv ändå vet att om

46:43

man får Ariel en assistenter

46:43

om du kan, då blir det bättre

46:48

för då behöver du inte söka

46:48

svaret och blir matad svaret.

46:52

Men vad gör det med

46:52

oss som personer och våra

46:55

personligheter om vi inte

46:55

längre måste tänka någonting

46:59

själva utan allting blir matat?

47:02

Är det inte så man säger

47:02

att den generationen vill leva,

47:05

som lever nu eller som håller på

47:05

bli den nya generationen i den

47:09

första generationen som kommer

47:09

vara mer korkade generationen

47:12

innan dess om man mäter hur.

47:15

Ursäkta, men pratar du om mina barn nu?

47:18

själv för att.

47:19

Upp

47:20

och öppet. Väl

47:23

uppe

47:26

med dig, med mig. Det är ju ett.

47:29

Det är ju.

47:31

sanning med modifikation menar.

47:33

Nämen det är jätte intressant när jag nu vbg har varit runt och

47:34

presenterat den här trenden

47:37

förut när den var aktuell,

47:37

då var ju liksom ett av de.

47:41

Nu är det säkert för unga för det här, men det. För länge, länge sedan så

47:43

fanns det en film som handlade

47:48

om en pytteliten robot som

47:48

var lämnad kvar på jorden.

47:52

Den hette Filmen hette Våning.

47:54

Nej, det är

47:54

nog lite för öppet.

47:58

Förlåt att jag var

47:58

tvungen, men när man håller in

48:03

bilden om det här med att att

48:03

man åker runt och glider runt

48:07

med sin lilla bekväma stol. Så jag tror att det att

48:09

det ligger nära till hands

48:13

för många att tänka att det

48:13

att vi kan bli för bekväma.

48:17

I.

48:17

Det var liksom

48:17

när vi presenterat den här.

48:20

Den här trenden. Då har det varit lätt för

48:21

folk att se kopplingen till.

48:25

Det bekväma livet och

48:25

att det kanske inte

48:27

alls är så hälsosamt. Vi.

48:30

Jag inte göra det. För varje ämne som kommer

48:31

in med samma tak blöt

48:36

filt och lägger på den, samt

48:39

Men jag. tänkte inte på det.

48:41

Så jag tänker att vi ska gå in på lite vad är

48:44

möjligheterna och vad är det? Är det positiva?

48:47

Vad kan man göra för att

48:47

prata om ekonomi liksom?

48:50

Vad kan medför risker? Vad kan gå dåligt

48:52

och hur ska man tänka? Men de som jag

48:56

kommer långt med mitt jobb bor ju mycket jobb där. Jag har varit inne på det

48:58

lite, men vilka jobb

49:00

kommer skapas har

49:00

jag funderat på.

49:04

Jag tänker att det där eller

49:04

är det mer bara att jag

49:07

bara kommer försvinna eller?

49:08

Jag tror det. Man pratar inte om att det

49:11

är hela jobb som försvinner.

49:13

Är väl så hela jobb

49:13

som försvinner.

49:16

Det är ju tasks som blir övertagna och vad

49:21

som händer.

49:22

som försvinner kanske

49:22

och sedan går över till vilka

49:24

som skulle kunna skapas av

49:26

Det var faktiskt det där jag

49:26

kände att det var där jag

49:28

hamnade.

49:29

börjar att.

49:31

Men jag skulle bli ledsen för det här. Jag vill bygga på

49:32

den här storyn. Det.

49:35

Om du har en arbetsuppgift

49:35

som blir övertagen av energi,

49:40

det frigör i det också mer

49:40

tid hos dig och då kanske du

49:43

kan be mycket om det liksom.

49:46

Det är massa mycket runt

49:46

egentligen en och kan göra och

49:50

då kan du använda den tiden

49:50

till att kanske förebygga den.

49:53

Jobba vidare, skapa nya saker,

49:53

hitta nya arbetsuppgifter.

49:57

Du förändrar ditt arbete. Sen kommer jag att utvecklas.

50:00

Jag köpte en annan torsk. Men då är ditt jobb fortsatt

50:01

att utveckla och tänka

50:04

vidare vad du kan göra. Ja, jag tror inte man ska prata.

50:08

Är det jobb eller typen av yrken? Det här yrket försvinner och

50:10

det här yrket kommer till

50:13

utan det blir mer att titta på

50:13

liksom över ett bredare spektra.

50:16

Olika yrkeskategorier

50:16

liknande saker hur kan och

50:18

kommer att utvecklas och

50:18

förändras och förändras på

50:21

grund av att teknologin.

50:22

Du är mycket mer positiv än jag är.

50:25

Haha. Oj

50:27

Jag har ett totalt

50:27

katastrof tänk när det kommer

50:32

till där jag står och slänger

50:32

upp allt med robotar, inte bara

50:38

som en tänkande maskin utan mer.

50:41

Nu kommer vi ha robotar också

50:41

som kan utföra tasks och så

50:44

slår du ihop dem med dem. En AI som börjar tänka

50:46

själv och som kan skapa

50:48

information och blir fördummad.

50:52

fördömandet av samhället och allt vad det. Vi bara som det kallas,

50:55

självscanning på ICA.

50:57

Det är typisk sån grej där vi

50:57

tar bort jobb för att ersätta

51:02

Schenker så fort de har så

51:02

många anställda, brukar fylla

51:04

på hyllor och göra grej och

51:04

hjälpa till och allt vad nu är.

51:07

Men du ersätter människan

51:07

med maskin och kan vi då få

51:11

in ännu mer såna grejer där? Det är en vinst du får från mig.

51:15

Som jag sagt, det enda du egentligen gör är att köpa saker.

51:17

Kör ändå. Självkörande bilar

51:18

ska köra hem du till. Du har en AI som automatiskt

51:20

tänker ut För att både

51:22

äta behöver du på att

51:22

följer tid, men du själv

51:26

behöver inte göra nånting. Och sen går jag och

51:28

ska mig ett jobb också.

51:31

Kan du sammanställa excel listor

51:31

och då behöver du bara vet att

51:34

jag har data här så det är klart

51:34

försvann 2 timmar den dagen.

51:38

Sen så ska du representera det

51:38

där man uttalar datan om det.

51:42

En paus på en timme och

51:42

helt plötsligt ser du massor

51:46

av task som försvinner. Men tänker du på

51:47

servicepersonal?

51:50

Och då har du en AI som

51:50

tänker ut och så vet man

51:53

vilka som är i det butiken

51:53

och så säger den bakre Du

51:57

kommer upp och säger nu här. Du har din digitala profil

51:58

om vad du tycker och smart

52:01

skickar det till restaurangen,

52:01

serverar den, går i affären,

52:04

kalkylerar ut vad de har för

52:04

gränser och skickar ut en

52:06

rabatter som serverar maten till

52:06

och så ringer jag bara och så

52:09

dras pengarna automatiskt från

52:09

ditt konto och helt plötsligt

52:12

så har du inga anställda. En robot också som självklart

52:14

lagar mat men du fattar

52:18

vilken? vilken? typ av tilltro har du

52:19

till mänskligheten för

52:22

noll.

52:22

att upprepa det?

52:26

Har du någonsin sett människor

52:26

som lägger sig ner på att

52:29

när jag ligger apatisk? Ingenting.

52:31

Okej, du kanske behövde snickare

52:31

och börja hålla på att snickra

52:36

skåp eller än sitter och jobbar natt och jag om det finns

52:39

någonting.

52:42

Att vi.

52:43

Nej, men det finns

52:43

någonting som man ändå får

52:48

tillskriva mänskligheten,

52:48

så är det ju kreativitet.

52:52

Och jag tror att det är

52:52

så att ja, det är så att

52:55

vi kommer använda AI i

52:55

väldigt många olika saker.

52:58

Men vi kommer ju hitta

52:58

på nya saker att göra.

53:01

Ingen vill väl ligga raklång

53:01

och stirra upp i taket?

53:04

Och om man Nu

53:05

Nu laddar du. Nu laddar du. Nu

53:08

laddar. Vad ska du?

53:11

Kreativiteten är väl

53:11

inte det som har av kreativitet

53:14

att mustig copywriter Är.

53:17

duktig på Spotify. Det är

53:20

Att.

53:20

musik som skrivs

53:20

och de bilder som målas av

53:23

och det är det som är kreativa yrken på det sättet.

53:26

det är det som an ta bort

53:26

kreativiteten av

53:29

skriven text och hela. Det är ju det.

53:32

som av en just nu för

53:32

många tar bort att du

53:34

ska. De som gör åt dig

53:37

vore ju bara kött i butik

53:37

eller vad det nu heter.

53:40

Listan är baserad på tidigare aktivitet,

53:41

men resultatet är att du

53:45

bara matar in nånting och

53:47

någonstans tror det jättemånga som kan

53:47

tycka det är jättejätte ligga

53:51

18 timmar per dygn och kolla på

53:53

Netflix eller spela TV spel eller koppla Upp

53:56

sig i en VR miljö och

53:56

leva där, det tvivlar

53:58

jag inte på för fem öre.

54:00

Fast vi kan inte blanda in

54:02

dömer man andra.

54:03

mig. Men du kan inte. Det är att leva i en VR värld.

54:06

Det här är en helt

54:06

annat samtalsämne,

54:10

Vi

54:10

vilket vi också kan. Ja, absolut, men

54:12

också du och jag.

54:16

Men du har ju en poäng. Jag kommer ihåg att jag

54:18

försökte argumentera för det

54:20

här någonstans när ni kommer

54:20

ihåg denna Alfa gång och gjorde

54:24

det här magiska dag

54:24

27 eller vad det var.

54:27

Däremot, och han eller dem

54:27

såg jag dem med häpnad.

54:32

Och så såg man även titta

54:32

och initiativ för att hans

54:34

blick fick ett smatter och

54:34

vi gjorde någonting som ingen

54:38

andre hade förväntat sig. Ja. Tittar vi på.

54:41

Jag gjorde en annan intervju

54:41

med Studio Ett, ett indiskt

54:43

städbolag som började göra

54:43

kläder med hjälp av AI, där

54:46

en industridesigner eller din

54:46

kläddesigner inte kom in först

54:50

i slutet av processen och någon

54:50

form av gay nätverk eller ens

54:53

trådade internetföretag och

54:53

trender kom upp med förslag

54:57

på kläder som var lämnade

54:57

jag som mätte hur bra det

55:01

här skulle funka och utmanade

55:01

här om designen och mot hur

55:05

bra det skulle funka på deras

55:05

hemsida och sen kom in i

55:09

kläder från den in i slutet

55:09

och tittade på resultatet och

55:11

sa det här är ring och skicka

55:11

till produktion, det är min.

55:15

Men jag kan inte se att. En kläddesigner skulle nöja

55:17

sig det, men däremot och kanske

55:20

samarbeta med den här typen av verktyg och annonsera och

55:21

liksom utveckla sitt yrke.

55:24

Ja, det tror jag. Jättemånga skulle inte säga ja.

55:28

Det kommer alltid finnas folk

55:28

som vill ligga på soffan och

55:30

titta på Netflix, men det

55:30

kommer finnas ganska många som

55:32

inte nöjer sig med det också.

55:34

Vi har ju jobbat

55:34

inför såna här teknikskiften

55:36

tidigare med robotar

55:36

som gått in i industrin.

55:39

Vi har gått genom hela industriella revolutionen. De har ju.

55:42

Ja, det har försvunnit,

55:42

försvunnit jobb.

55:45

Men. Människor ändå hittat

55:45

på andra saker att göra

55:48

och då skapas nya jobb.

55:51

Så varför skulle vi helt plötsligt

55:54

vänja

55:54

Vad är.

55:55

vid att ligga på soffan?

55:56

Varför inte? Men det kanske inte behöver ligga på soffan.

56:00

Men du behöver kanske inte

56:00

aktivt jobba för liksom

56:04

bara för att jobbande skull. Men så du bryr sig om varför

56:05

du vill tillföra någonting.

56:08

Och var det är någonting. Något annat. Men någonstans,

56:11

nu ska jag var. Jo,

56:13

men då kommer det finnas för den

56:15

fördummande generationen. Om vi nu ska gå på den

56:18

tesen.

56:20

Och.

56:20

Exakt. Eller så.

56:23

test

56:27

Nu fördömer nationen också robotar som undersöker

56:30

inte bara begär robotarmen,

56:33

de bygger grejer. Industrin får bättre robotar

56:35

som gör de tillbehör de bygger,

56:38

robotar som gör annat än att

56:38

bara tänka och göra saker.

56:43

Och här också så har

56:43

vi självkörande bilar.

56:45

Vi gör oss självförsörjande,

56:45

lättare elnät för att

56:48

självförsörjande rätter

56:48

reparatörer självklart ens kan

56:52

få av något så kan apparater repareras.

56:54

Helt plötsligt så har vi. Saker som tänker och

56:56

fysiskt gör saker.

56:59

Under passet nånstans kommer

56:59

vi inte ha ett behov av.

57:02

Har massa låg betalande jobb där

57:02

majoriteten av mänskligheten är.

57:08

Däremot kommer vi ha en del och

57:08

det kommer behöva ha folk

57:11

som kan en som kanske kan

57:11

specialkunskap om att reparera.

57:14

Du kan ha specialkunskaper

57:14

att lära och eller

57:18

kreativa skapa saker. Självklart.

57:21

Det kommer vara vissa som

57:21

missar sådana jobb, men i

57:24

det stora hela så känns det

57:24

som att en stor massa utav

57:29

befolkningen brukar Sverige. Inte det bästa exemplet

57:30

när de kollar på hela jorden någonstans.

57:33

Kommer inte ha sysselsättning.

57:36

Nog för att vi kommer ha

57:37

saker som travare, sen kommer det skapas

57:39

nya möjligheter men alla kommer inte kunna vara.

57:43

De som forskar och kommer

57:43

på de smarta idéerna.

57:45

För det är de inte idag. För folk är inte

57:46

till tänderna smarta.

57:49

Men varför skulle

57:52

Så jävla dystert. Så jävla

57:55

jag köpa Det Men ju mer jag vill

57:56

bemöta det här.

57:59

Jag sett ett jätteroligt

57:59

Youtube klipp från jättelängesen

58:04

där en snubbe som lägger

58:04

sig i en maskin med huvudet

58:08

och försiktigt huvud

58:08

håret tvättat av en robot

58:12

måste vara en fruktansvärd

58:12

upplevelse, för det är få som

58:17

skrapar honom över huvudet. Löddrar överallt.

58:20

Det kommer liksom vatten från sidan alltså. Så här är det ju.

58:24

Det kommer att finnas yrken

58:24

som jag tror det är åt för

58:27

länge innan vi ens vill

58:27

att de ska digitaliseras.

58:31

Allt från från yogalärare, massa

58:31

en massa yrken där vi faktiskt

58:37

vill ha en mänsklig kontakt.

58:40

Sen finns det jättemånga

58:40

yrken där det inte finns en

58:42

ekonomisk fördel att använda

58:42

sig av robotar eller AI.

58:47

Där är det också lite sorgligt

58:47

om man får fundera på vilken

58:49

utveckling man vill ha. En till exempel ett

58:51

städat hotellrum. Har ni sett en robot?

58:54

Någon som försöker bädda en säng? På sin höjd ser det ut

58:57

kanske som när en tonåring

59:01

försöker bädda sin säng

59:01

med liksom ett täcke som

59:04

ligger slängd på sidan. Att få ett heat att skapa en

59:06

robot som faktiskt kan göra

59:11

alla de sakerna vi kan i ett

59:11

gästrum är väldigt svårt.

59:17

Det finns liksom områden där

59:17

vi varken vill ha robotar

59:22

och AI och det finns områden

59:22

där bi där de inte kan verka.

59:26

Sen då? Vi funderar lite grann på

59:27

vad blir det för typ av jobb?

59:30

att få en massage av en människa? Kanske blir jättemycket eller

59:32

kanske bli jätte billigt

59:36

för alla blev massörer.

59:38

I.

59:39

Det är svårt att

59:39

spekulera kring men här är

59:42

också igen som behöver anta att

59:42

behöver man ta diskussionen?

59:47

Vad är det för utveckling vi vill ha? Men jag skräms inte alls av.

59:51

Av en ökad automatisering vid

59:51

användning av digitala verktyg.

59:57

Skönt. Tack för det du!

59:59

Det är jag suttit och

59:59

argumenterat med och sett

1:00:03

där och han är så jäkla negativ positivitet.

1:00:10

Jag tänker att. Har du? Du vet. Tesla försökte hela automatisera

1:00:12

sin produktion och fick rulla

1:00:16

tillbaka till 70 % för att.

1:00:21

Just det, robotar är inte så bra

1:00:21

på att lägga en kabel mattor och

1:00:24

koppla i kontakten när kontakten

1:00:24

inte råkar ligga på det stället

1:00:27

där den förväntar sig när du

1:00:27

har slängt in en hel kabel.

1:00:30

Ja,

1:00:31

en produktion.

1:00:32

jag läste någonstans

1:00:32

några ämnen om det också.

1:00:36

Trevlig bok om AI och

1:00:36

utvecklingen som varit.

1:00:38

Med slutet av boken

1:00:38

så var det road.

1:00:40

Inte en som är rädd

1:00:40

för AI revolutionen

1:00:45

och då var det så här. Du kan börja med att

1:00:46

måla alla dina handtag

1:00:48

i samma färg som dörren. Gärna svart för då kommer ett

1:00:50

problem att hitta dörrhandtaget.

1:00:55

Sen kan du se till att bo

1:00:55

i ett hus med trappa för

1:00:57

det är väldigt svårt för

1:00:57

robotar att skjuta trappor.

1:01:01

Sedan kan du bara välja att

1:01:01

sätta upp olika bilder på

1:01:04

dörrar och fönster och allting

1:01:04

runt om i ditt hus som gör

1:01:07

att det omöjligt att navigera

1:01:10

vad som är dörrar och fönster. Och sedan i

1:01:12

i.

1:01:12

sätta dig på bordet

1:01:12

för att se ut som bäst

1:01:15

och anti som är på rymmen.

1:01:19

finns vägar för dig också. Känna dig trygg.

1:01:24

Gillar hur det här ändrades till

1:01:27

runt.

1:01:28

det lugnt det

1:01:30

förlåt.

1:01:31

Nej, har inte

1:01:31

varit helt snälla med

1:01:34

våra fåglar heller

1:01:34

När.

1:01:35

det finns ingenting

1:01:35

och be om ursäkt för.

1:01:39

Men i sak är jag inte orolig för

1:01:40

mig själv eller så.

1:01:43

Men jag ser ändå att det skulle

1:01:43

kunna finnas problem och inte

1:01:48

bara att Vad köra och hoppas

1:01:48

på det bästa sker utan det

1:01:51

kanske är så att samhället

1:01:51

och vi själva tänker lite

1:01:55

så att verkligheten i dag

1:01:55

kommer inte påverka den om några

1:01:58

år och vi bara kollar hur fort kött till

1:02:01

bete på två månader blev ett faktum för nästan hela världen.

1:02:04

Och det är en halvt dum köttbit.

1:02:08

Men den satte hela utbildningssystemet

1:02:09

på snedden helt plötsligt

1:02:12

och alla möjliga yrken

1:02:12

fixar och det funkar ju.

1:02:16

Och då tänker vi generation

1:02:16

som är och blir hundra gånger

1:02:20

smartare och mer tränad på

1:02:20

data som är under utveckling.

1:02:24

Och det är bara att bottna

1:02:24

med allt annat som sker

1:02:26

och jobbar smartare. Det kommer gå fort

1:02:27

tror jag Och det. måste du vara med på att

1:02:29

kunna ta vändningarna.

1:02:31

Det är lite det. jag säger och att inte bara

1:02:32

stå där och säga men med

1:02:34

det jag gör i dag kommer jag

1:02:34

kunna göra exakt likadant

1:02:36

om fem, tio, 15, 25 år.

1:02:39

Det tror jag. Du har helt rätt.

1:02:40

göra.

1:02:41

Jag tycker att du

1:02:41

sätter fingret på kanske det

1:02:43

viktigaste över huvud taget, det

1:02:43

är att vi gör det här som en så

1:02:48

medveten utveckling som möjligt. Att vi tänker efter före.

1:02:51

Att vi ser att det kommer att

1:02:51

komma en hel del fallgropar.

1:02:53

Och det kan gå fort. Det kan gå fort ett tag och sen

1:02:54

så blir det liksom en backlash

1:02:57

och så händer ingenting och

1:02:57

sen så kommer det gå fort igen.

1:03:00

det är klart. Men vi behöver tänka efter före.

1:03:02

Vi behöver regleringar. Vi behöver fundera på

1:03:04

vad är ansvarstagande?

1:03:06

Utvecklande? Vi behöver fundera

1:03:07

kring AI och etik. Och vad är giltigt?

1:03:10

Ska inte vara liksom ett eget

1:03:10

separat område som ligger

1:03:12

där borta någonstans, som

1:03:12

bara håller på med utan utan

1:03:14

det måste verkligen ingå i

1:03:14

all form av AI utveckling.

1:03:18

Robot utveckling

1:03:19

Då kommer en samhällsfråga då. Tror

1:03:21

du? Eller tycker du? Eller tänker?

1:03:24

Eller vet du det? Det får du svara på direkt

1:03:25

från vilket håll du vill

1:03:28

att stater och du tänker.

1:03:30

Speciellt Sverige har en tillräckligt bra

1:03:31

grepp om vad A är och att

1:03:35

dom tänker på regleringar och

1:03:35

hur man hur samhället kan bli

1:03:38

påverkat av det som händer. Eller är man lite som Sverige

1:03:40

är en ganska långsam verkstad

1:03:44

och kommer på allt för sent

1:03:44

och då kommer få leva av

1:03:46

konsekvenserna av att det fort. Det gäller inte

1:03:48

bara i Sverige, men

1:03:50

När man tänker Hur

1:03:50

ledande var de där sågarna?

1:03:54

Ja, verkligen.

1:03:57

Jag skulle säga så här. Vi behöver ju vara bra

1:03:58

både tänka efter före

1:04:02

men också vara aktiva. Men vi måste både reagera

1:04:04

på det som händer men

1:04:06

också tänka efter. Finns det tillräckligt bra

1:04:07

förståelse för vad det här

1:04:10

är och vad det kan innebära? Jag går tillbaks mitt

1:04:11

ursprungs argument i början?

1:04:14

Nej. Vi vet inte. Människor vet inte.

1:04:17

Man förstår inte vad data är. Vi tre vet ju tydligen

1:04:18

uppenbarligen inte igen.

1:04:21

Avges

1:04:22

Så om vi sitter här

1:04:22

och inte riktigt kan sätta

1:04:26

fingret på det där man han

1:04:26

tänkte, då är gemene man

1:04:30

där ute och ler när man. I dag får vi starta där i maj

1:04:32

för att vi vill liksom på nåt

1:04:35

vis demokratisera AI samtalet.

1:04:37

Vi har ju gjort seminarier, vi

1:04:37

har gjort böcker, vi har gjort

1:04:40

studier tillsammans med Novus. Just nu planerar vi på att

1:04:42

göra en till, men något.

1:04:44

Så ta en ny mätning på samma frågor. För att sprida

1:04:46

den här kunskapen. Men sen skulle jag

1:04:48

säga ja, absolut.

1:04:50

De som sitter och jobbar med

1:04:50

mer än de regerings frågor

1:04:54

liknande eller ansvar så vår

1:04:54

politiker de behöver veta.

1:04:57

Men sen behöver också

1:04:57

vanliga människor veta.

1:05:00

Exempel i en organisation. Så kan man ju säga Jo,

1:05:02

men det är de som jobbar

1:05:04

med utvecklingen, är de

1:05:04

som inte kommenterar och

1:05:07

utvecklingen som är hennes

1:05:07

kunder som ska behöva förstå.

1:05:09

Det handlar om att de HR

1:05:09

avdelningen köper in ett

1:05:12

AI system som ska hantera

1:05:12

alla medarbetarnas data.

1:05:17

Då behöver de förstå vad är det

1:05:17

för data och hur är den känslig?

1:05:21

Hur kan det här systemet

1:05:21

använda den datan?

1:05:23

Vad finns det för risker med det? Hur vill ni att andra ska

1:05:25

utvecklas På 05:50 år bör

1:05:28

man också fundera kring

1:05:28

den allmänna kunskapen.

1:05:33

Behöver vi höja och det ska

1:05:33

inte ske redan i grundskolan.

1:05:38

Men något som jag

1:05:38

funderat på, det är väl

1:05:41

lite personlig integritet

1:05:41

när det kommer till

1:05:45

AIS och all denna data.

1:05:47

För det är ju data vi måste

1:05:47

lära oss hur vi hanterar data.

1:05:50

Men hur? Hur ska man liksom idag då?

1:05:52

Fundera eller tänka. För all data blir ju en stor

1:05:54

boll av träningsdata i många

1:05:59

aspekter och jag tror inte

1:05:59

Open är att helt öppna med

1:06:04

vad det är för träningsdata

1:06:04

de har använt till exempel och

1:06:07

vilken data som innehåller det. Hur?

1:06:10

Hur ska man tänka som privatperson? Har du några tips,

1:06:12

idéer eller tankar?

1:06:15

Hur

1:06:15

inte

1:06:15

man i

1:06:15

integritets mässigt?

1:06:18

När det var den

1:06:18

svåraste frågan hittills tycker

1:06:21

jag. Ja. Nej.

1:06:23

Men jag tycker liksom

1:06:23

förberedelse, frågor och

1:06:26

integritetsfrågor är kanske

1:06:26

det var egentligen det som

1:06:28

fick mig att börja hålla på

1:06:28

Maria och huvud taget Hur vi

1:06:32

ska tänka kring integritet. Jag tror igen, det är

1:06:35

en kombination av vad vi

1:06:38

tillåter organisationer,

1:06:38

företag, privatpersoner

1:06:41

och samhällen att göra. Och det andra är ju kunskap jag.

1:06:44

Kan liksom inte ge något svar på det Så. Har ju ditt svar på den.

1:06:49

Jag ser väl en risk.

1:06:53

Rent generellt. Jag är till exempel

1:06:55

inte en person som är.

1:06:59

Super privat av mig. Jag är nog.

1:07:02

Jag sprider nog min data

1:07:02

ganska vitt och brett.

1:07:05

Däremot så är jag ganska

1:07:05

mån om att skydda mina

1:07:08

konton väldigt väl. Till exempel en sådan

1:07:09

säkerhetsaspekt med min data.

1:07:13

Jag tror man kan få ta reda

1:07:13

på ganska mycket om mig genom

1:07:16

att bara göra en ganska så

1:07:16

lätt googling och hur jag

1:07:19

ska rulla tillbaka det. Jag tror att det är svårt

1:07:21

när jag redan har satt

1:07:24

mig i den situationen. Jag sitter till exempel.

1:07:26

Och att jag säkert är en

1:07:26

del i nån typ av träning.

1:07:30

Starta bas. Säkerligen många gånger om

1:07:31

och men det är också frågan

1:07:36

vad gör det om jag är en

1:07:36

i mängden till exempel?

1:07:39

Så länge man inte kan plocka

1:07:39

ut specifikt min data.

1:07:43

Gör det nånting då att

1:07:43

min data är en del i den

1:07:46

stora mängden till exempel?

1:07:48

Naw, du gör väl rätt.

1:07:50

Tänker så här traditionell

1:07:50

mycket research har varit att

1:07:53

man delar in konsumenter i

1:07:53

olika grupper utifrån ålder,

1:07:57

köpbeteenden eller något annat. Det Jag har ett visst

1:07:59

antal backat, backats. Du placerar människor med

1:08:01

hjälp av den dataanalys

1:08:03

som du kan göra idag. Alltså kan du göra bakelserna

1:08:04

mindre och mindre och

1:08:06

mindre att tillgå och du

1:08:06

kan vara mer med granuler.

1:08:10

Och om man. Då behöver du kanske

1:08:11

inte veta exakt

1:08:13

Nu.

1:08:14

din data. Men eftersom jag kan placera

1:08:15

dig i en pytteliten backat.

1:08:19

Så kan jag ändå veta ganska mycket om dig, även om det inte

1:08:21

råkar vara just din data.

1:08:25

Sött.

1:08:25

väldigt sant.

1:08:27

Jag tror att jag

1:08:27

tror att man ska vara chaufför

1:08:31

för tio år och satt ner

1:08:31

argument med d människa på.

1:08:35

Jag har rent mjöl i påsen. Behövde inte vara

1:08:37

orolig för någonting. Men

1:08:39

de första.

1:08:40

hittar på

1:08:41

Ja jo, jag tänker

1:08:41

så här att när vi ändå pratar

1:08:45

om tjat, tjat och det var

1:08:45

nån som nu läste det om det.

1:08:49

Vaknade bort någonting alls idag

1:08:49

också för 05:06 år sedan som en

1:08:53

man som hade två utvecklare och

1:08:53

den ena utvecklaren hade gått

1:08:57

bort när man goda vänner och det

1:08:57

andra första då det eller tagit

1:09:02

all den här datan från deras

1:09:02

tidigare chattar och allting

1:09:05

annat och utvecklat en chatbot

1:09:05

så han kunde fortsätta sitta

1:09:09

och chatta med sin döda vän.

1:09:10

Ja, Och

1:09:12

Och det är sant,

1:09:12

men lite läskigt med också.

1:09:14

Men det kanske var bättre förr.

1:09:18

För den här personen. Om man då tänker på att använda

1:09:19

datorn du lämnat efter dig, på

1:09:23

alla dina konton och liknande

1:09:23

och allt det och alla andra

1:09:25

saker du har gjort och du

1:09:25

har shoppat och du har liksom

1:09:28

resor, vilka du har hängt med

1:09:28

och vilka du haft proximity

1:09:31

med ens var i närheten av all

1:09:31

denna data som finns om dig

1:09:34

som du inte medveten om att

1:09:34

jag släppt ifrån dig Elinor.

1:09:37

Den tillfaller ju inte dina

1:09:37

barn eller dina dina släktingar

1:09:41

när du dör utan då äger den. Då går ju den till

1:09:44

till företagen.

1:09:46

Om det här ändras så kan ju någon rätta mig dock. Men

1:09:49

Det finns inga digitala testamente. Det är testamentera min

1:09:50

data till mina barn.

1:09:54

Men faktum är att min dator

1:09:54

berättar väldigt mycket om

1:09:57

mina barn också, vad jag

1:09:57

har gjort och om allt som

1:10:01

kan förutspå mina framtida

1:10:01

sjukdomar och allting annat.

1:10:05

Säger kanske någonting om vad som är verkligheten för mina barn,

1:10:07

så min data är ju

1:10:07

egentligen deras.

1:10:10

Och sen om man spinner vidare

1:10:10

på det här ännu mer, om man

1:10:12

hatar mig, om jag då dör. Och all den här datan finns.

1:10:15

Om man gör en smart chatbot med mig. Dick kan få veta av mig

1:10:18

I.

1:10:19

som jag kanske

1:10:19

fick läsa en gång till.

1:10:22

Tre poäng till. Att den här typen av

1:10:24

information mina barn kan

1:10:27

fråga har fått en back mamma. Vem tyckte du egentligen

1:10:29

mest om av oss två?

1:10:32

Hos

1:10:33

Alltså, det är som

1:10:33

Det finns jätte jätte många

1:10:37

stora viktiga saker som

1:10:37

jag tycker vi borde ta upp.

1:10:40

Ju bättre vi blir på att

1:10:40

analysera data, bygga in

1:10:42

dem i system desto viktigare

1:10:42

blir det att vi också

1:10:44

förstår data och integritet

1:10:47

I.

1:10:47

och vad det är för

1:10:47

data bland annat ifrån oss.

1:10:49

Och vad får man faktiskt göra med den? Vad är svar nu och

1:10:51

på din fråga det?

1:10:53

Ja,

1:10:55

I.

1:10:56

jag tycker det. Och om inte om inget annat.

1:10:58

Väldigt. En tankeställare. Ett bättre.

1:11:03

Och det är så jag tänker.

1:11:06

Om man ska ta det här med att lämna ifrån sig data för att

1:11:09

efterlämna i världen är ju inget nytt.

1:11:11

Bara att du har målat en tavla

1:11:12

eller att du har skrivit

1:11:15

någonting i ett brev eller? Så Mycket

1:11:17

av vår historia bygger folkkäre Petersons data på ett

1:11:19

annat sätt, vare sig det är

1:11:22

böcker eller brev och dagböcker. Och man lär sig mycket

1:11:23

om personer blir det som

1:11:26

skiljer. Nu tror jag att det är inte så mer.

1:11:28

Man tänker inte på att man

1:11:28

lämnar ifrån sig data och

1:11:32

att den sparas på samma sätt. Du vinner för att när du

1:11:34

skrev en dagbok eller skrev

1:11:34

ett brev under tänkte om

1:11:38

nyskrivet och det här. kan sparas. Svart på vitt.

1:11:41

Men lika mycket är ju

1:11:41

en chatt mellan dig och

1:11:44

din kompis som drev tidigare.

1:11:47

Eller den här bloggen vs

1:11:47

Instagram eller Facebook.

1:11:50

För det är ju internets bloggar från start. Det är lika mycket en

1:11:53

dagbok som något annat. Precis så mycket

1:11:56

data som du faktiskt. Eller fotoalbum. Jag tror också det är också

1:11:59

Instagram eller vad det nu blir. det digitaliserade.

1:12:02

Men att inte fokusera på det sättet. Och skillnaden

1:12:04

är att datorn ligger inte i en låda

1:12:07

eller i din bokhylla,

1:12:07

hemma eller i.

1:12:09

Här måste du skicka det tydligt. Den ligger i

1:12:11

företagscenter och I

1:12:14

viss mån så är den kanske

1:12:15

öronmärkt, men det är.

1:12:18

Det här är Rebeckas data.

1:12:21

Det här är Andreas Data. Men ska du gå in på

1:12:23

och bekräfta att.

1:12:26

Och kolla på bilder och

1:12:26

så att mitt fotande på

1:12:28

min telefon hittar den ju

1:12:28

rätt fort att här är min

1:12:32

sambo. Här är Andreas. Här är jag på olika bilder

1:12:36

och delar den datan. Då så kan jag helt

1:12:38

plötsligt men jag är inte

1:12:38

lägger vi ut videos på själva

1:12:42

budskapet digitalt? Rätt mycket

1:12:45

data om oss själva på detta sättet. Men

1:12:49

Gör man sällskap

1:12:49

många tänker

1:12:50

när jag ska ut

1:12:51

innan.

1:12:52

så ska du tidigt

1:12:52

och då är det ändå så här.

1:12:55

Nu kan jag konkret se att

1:12:55

jag har tagit en kort.

1:12:58

Då var ett kort på Andreas

1:12:58

och då finns det där.

1:13:00

Men sen är det du inte tänker på

1:13:00

en annan dator du lämnar ifrån

1:13:04

dig och det till exempel att. Vilka typer av finns

1:13:06

det du använder? Det var någon studie företag

1:13:08

som visade att att man kan

1:13:11

se människor som har en

1:13:11

tendens eller de är redan i

1:13:14

depression baserat på vilka

1:13:14

filter man använder när man

1:13:18

publicerar bilder för hälsa. Och det tänker du

1:13:20

inte att det är data för. Det är en manipulering

1:13:22

av ett foto du gör,

1:13:25

men det är också data. Men data är data på var

1:13:28

jag är, hur jag rör mig,

1:13:32

hur snabb jag är, hur

1:13:32

många tangenttryckningar,

1:13:35

hur vad jag brukar stava

1:13:35

fel på, för vilka ord.

1:13:38

Allt är data.

1:13:39

Men då är det

1:13:39

Men vi måste. Vi måste prata mer om data.

1:13:43

Och det bästa då hade ju

1:13:45

varit att man kan.

1:13:47

Man kan på viss mån

1:13:47

begära tillbaka sin data

1:13:50

men inte allt detta. Det tror jag är väldigt

1:13:51

svårt för att det inte eller all data är

1:13:53

öronmärkt med att detta är du.

1:13:56

Man kan säga att detta är

1:13:56

en person, men trots bara

1:13:59

all export av re omöjligt

1:13:59

så har all data sparat och

1:14:02

öronmärker inte person. Då blir det otroliga

1:14:03

datamängder.

1:14:06

Men. Att ha fått baka den för alla företag, alla ark

1:14:07

hemsidor de varit inne på.

1:14:10

Allas cookies

1:14:10

måste ju att ha den

1:14:12

datan sparad också av allt den är. Det är ju lätt i sak när det går

1:14:14

väl, men det är en omöjlighet.

1:14:20

Men det som jag satt och

1:14:20

hoppade för innan, det

1:14:23

är en grej som jag inte ens tänkt på innan. Borde man ha regleringar

1:14:26

på att barns data.

1:14:30

inte får sparas på nätet

1:14:30

eller sparas hos företag.

1:14:33

Barn har väl i uppdrag 18 år

1:14:34

att egentligen ha.

1:14:37

Du, Du, är barn,

1:14:39

du är inte vuxen. Du vet inte vad du gör,

1:14:40

inte gör och då är inte de

1:14:43

ansvar den som vuxen har. Ska du då från väldigt,

1:14:48

väldigt ung ålder börjar du nu faktiskt

1:14:49

spåras som en person i både

1:14:53

familje konton och olika som

1:14:53

användare och där ska den

1:14:56

datan sparas om dig

1:14:56

för att du är om allt

1:14:59

från två år och uppåt. Också ändå

1:15:02

byggas på efteråt och kopplas

1:15:02

upp med ditt vuxna jag.

1:15:05

Eller borde man ha? Men det är svårt också att

1:15:06

säga att det är det härliga

1:15:09

och oheliga myntet att du

1:15:09

kan delvis vara en option.

1:15:13

Men. Ska man då bara kolla

1:15:15

på mail? Skaffa många som ska

1:15:16

e-mail när man var

1:15:19

elva år och haft

1:15:19

samma möjlighet.

1:15:22

Det är jättemycket som är knutet

1:15:22

till den mejlen och det har man

1:15:25

Då.

1:15:26

missat. När du inte svarar

1:15:26

är det okej, är inte

1:15:29

tänkt den tanken, men det slog mig när vi pratade detta. Och vad det innebär.

1:15:33

du har

1:15:33

en poäng, absolut.

1:15:35

Och det visar.

1:15:38

14

1:15:38

Så det var väl liksom strax

1:15:42

där efter som instagram kom

1:15:42

och då var det ju väldigt

1:15:46

många som liksom ville börja. La upp jättemycket bilder

1:15:47

på sina barn och jag la inte

1:15:52

upp någonting på facebook. Var ju där också innan och

1:15:53

gilla aldrig upp några bilder

1:15:57

på barnen för det tänkte jag

1:15:57

så för jag kan inte skapa

1:16:00

deras digitala profiler eller

1:16:00

identiteter och persona för.

1:16:04

Så jag tycker det var en

1:16:04

rolig bild när de kladdade

1:16:06

med blåbär i hela ansiktet liksom. För det kanske inte

1:16:08

vad de vill ha. Men men, det var ju

1:16:10

de här jättestora det.

1:16:12

Jag tror att den pågår lite

1:16:12

grann fortfarande också.

1:16:14

Vad har man för ansvar som

1:16:14

förälder att liksom dela

1:16:17

information om sina barn?

1:16:19

I.

1:16:19

Men jag tänker också

1:16:19

sedan när man får in ett

1:16:21

verktyg i skolan som action

1:16:21

box eller liknande liksom.

1:16:25

Där får de ju en sådan typ av information. Och sen vad barnen lär

1:16:27

sig i skolan, läs och

1:16:30

skrivsvårigheter, hur

1:16:30

duktiga de är att.

1:16:32

Eller att det finns en

1:16:32

jätte speciell typ av data.

1:16:36

En hemlighet upp för det finns ett företag som jag tycker är lite intressant.

1:16:40

Sen hon sina egna grejer den etiska diskussionen

1:16:42

när är okej och inte okej.

1:16:45

Det företag som som finns i

1:16:45

USA företag eller skolor och

1:16:50

kan se till att de här apparna

1:16:50

finns på skolans verktyg.

1:16:54

Och så har man barnen är

1:16:54

när de loggar in dessa fram

1:16:58

olika digitala verktyg och

1:16:58

de här verktygen kan läsa av

1:17:04

datan för att identifiera. När pågår det då?

1:17:06

Risk för våldsamheter

1:17:06

eller också depression?

1:17:10

Och ett success q som de

1:17:10

själva framhåller där.

1:17:14

Jag fick de här exemplet

1:17:14

från en jättebra podcast

1:17:18

som hette Från ett maj. En majoritet av det här var

1:17:19

deras podcast och det var

1:17:23

ganska spännande exempel. Där dom.

1:17:27

Skolan får det klart

1:17:27

att ett barn är på väg

1:17:31

att begå självmord.

1:17:32

Och.

1:17:33

Och då är det så att det sitter m ett barn i sitt sovrum.

1:17:36

Och Alex skrev lite om

1:17:36

Notes digitala verktyg

1:17:40

och det har triggat det

1:17:40

här å inom en kort stund.

1:17:43

15

1:17:43

minuters charm med skolan då.

1:17:47

informerat polisen. Polisen har åkt till ett

1:17:47

i den här familjen en

1:17:51

och ringer på familjen. Svara eller öppnar dörren.

1:17:54

Nej, nej nej. Men vårat barn i uppe på sitt

1:17:54

sovrum har precis ätit middag.

1:17:58

Så går de upp till sovrummet

1:17:58

och sen så är det inget

1:18:01

barn där och då hinner

1:18:01

man liksom identifiera.

1:18:03

Vad är de vanligaste

1:18:03

ställena i området där barn

1:18:07

väljer att begå självmord? Och så kom det.

1:18:10

Och mycket riktigt så hittar

1:18:10

man barnet och det som är.

1:18:13

Gud vilken tur att de kunde

1:18:15

förhindra det här. Men samtidigt, den andra

1:18:17

sidan av dig funderar ju.

1:18:20

Om du skriver ett sådant brev

1:18:20

ska vem som helst läsa det.

1:18:24

Är

1:18:26

Vad Var. liksom jag?

1:18:29

Vov Vov vov och vov!

1:18:32

Vov, vov! Vov går gränsen!

1:18:34

Personlig trygghet hos barn. Och för

1:18:38

alla andra. också. För när Jag mister min bana så ska ju ett jättebra.

1:18:43

Barnet fick hjälp han behövde.

1:18:46

Men. Också väldigt läbbigt att

1:18:48

någon har den insynen.

1:18:51

Och nämner, det som du pratade

1:18:53

om i förra avsnittet med

1:18:53

den här recensionen av

1:18:56

Nakenbilder i iMessage. Den är

1:18:59

ju mycket mildare och allt görs lokalt och

1:19:02

det är ett program och jag

1:19:02

tycker den är jättebra.

1:19:05

Men det finns ju olika grader av vad som

1:19:07

drar, inte bara väldigt

1:19:09

mycket utveckling som

1:19:09

har och ska bli en bra

1:19:11

bit i utvecklingen. Varje år har jag väldigt goda intentioner.

1:19:15

och jag vet inte vad. Jag har

1:19:17

visst goda intentioner i sak, men någonstans.

1:19:20

Det finns också en baksida av att mycket gott.

1:19:23

skapas. Det kan bli för gott Och

1:19:27

då blir det problem snarare

1:19:29

än att bli bara bli bra. För att smart och

1:19:32

smart data eller

1:19:32

smarta system maximerar

1:19:35

det också. De är ju smarta och kan mycket. Och varför kan mycket

1:19:37

och vad kan det få? Konsekvenser

1:19:39

det. Tycker den är svår.

1:19:42

för att Man vill både äta och spara

1:19:45

kakan samtidigt och det är svårt

1:19:47

nånstans att göra det.

1:19:48

Men men, det

1:19:48

är ju tyvärr tudelat.

1:19:52

Men kan man säga att det

1:19:55

gäller VM? Men om vi inte får de här

1:19:56

samtalen, om vi inte diskuterar

1:19:59

de här sakerna, då kommer

1:19:59

vi, liksom organisationer,

1:20:02

personer, människor att ta

1:20:02

sina egna beslut utifrån sina

1:20:05

värderingar och sina idéer

1:20:05

vad de tycker är rimligt.

1:20:08

Och vem vill egentligen kanske

1:20:08

en sämre utveckling än att vi

1:20:12

faktiskt försöker lösa de här

1:20:12

bitarna och diskutera igenom vad

1:20:15

tycker vi är rimligt och inte? Jag tycker det är

1:20:16

jättebra fråga du lyfter.

1:20:18

Du bör fundera på vad ska

1:20:18

vi göra med barns data i det

1:20:22

här och är det inte okay? Vi måste prata om det.

1:20:27

Så nej, det utgör inte nålar.

1:20:29

Och det är väl lite här jag

1:20:29

är inne på att som i

1:20:32

dysterhet att liksom jag tror att man måste ha rätt

1:20:36

Mycket mer än vad det redan gör.

1:20:38

Så visst nu så mycket om. Och det är väl väldigt

1:20:40

rätt i tiden med att vi

1:20:42

pratar om det också, Men mycket av pratet som är är

1:20:44

ju ett okänt i butiken och

1:20:47

detta sätter butiken i rätta

1:20:47

och man kan ju det här och är så

1:20:50

smart och man kan allt man kan

1:20:53

göra och vad det får för dåliga konsekvenser Och.

1:20:55

få dumma grejer. Garvade men det fanns

1:20:56

inte så mycket om.

1:20:59

Det här med datan och vad det finns för sådana. Det har inte hörts mycket i

1:21:04

media och har inte som pratar om

1:21:06

det alls eller inte nämns. Sån tur att jag söker

1:21:09

aktivt efter min insats ändå

1:21:11

på nu när jag inte då ser det här.

1:21:13

Tycker om och tänker om. Om barnsyn, trygghet i data.

1:21:19

Den har jag aldrig hört innan. Sedan finns

1:21:21

Nej.

1:21:21

Självklart diskuteras det inte det, men visst, man hör om det och

1:21:25

det borde pratas mer om. En av alla saker som se.

1:21:28

Jag funderar på hur

1:21:28

det påverkar, till exempel om

1:21:30

vi inne på stat rättsystemet.

1:21:32

Du kan ju teoretiskt sett

1:21:32

inte använda det till att begå

1:21:36

direkta brott, men du kan ju

1:21:36

indirekt använda det till att

1:21:40

utveckla med till exempel eller

1:21:40

framställa falsk information.

1:21:45

Och det finns ju kött i

1:21:45

butik, inte enbart ett.

1:21:48

Det är ju inte det enda verktyget. Finns massa olika verktyg.

1:21:51

Hur påverkar och i

1:21:51

rättssystemet och hur?

1:21:55

Hur ska vi kunna

1:21:55

säkerställa rättvisa när

1:21:57

det är datorer som har.

1:21:59

Är grunden bakom problemet.

1:22:01

Och vem bär ansvaret?

1:22:03

Precis.

1:22:04

För att om jag släpper

1:22:04

en algoritm och sedan så jobbar

1:22:07

du på att fortsätta lära upp

1:22:07

den och du nyttjar den för ett

1:22:11

annat syfte än jag som byggde

1:22:11

algoritmen eller den tjänsten.

1:22:16

Eller om det är produkten? Eller är det du?

1:22:19

Eller är det den själv som har

1:22:19

någon form av juridisk person?

1:22:24

det är ju det här. Det här är ju inte

1:22:24

alls mitt område.

1:22:28

Men.

1:22:29

Nej. Nu har vi spårat

1:22:31

Barbapappa. Men det är jätteviktiga frågor.

1:22:34

Ansvarsområdena och

1:22:34

ansvarstagandet.

1:22:36

Eller liksom vem vem

1:22:36

står som ansvarig?

1:22:40

Otroligt. Då kan man få i sig det också. På den positiva sidan då.

1:22:44

I.

1:22:44

Vad menar jag? Komma fram med något

1:22:45

som leder till patent?

1:22:47

A och jag. Jag.

1:22:51

I.

1:22:52

Eller alla dessa

1:22:52

genererade låtarna och

1:22:54

konstverken och liknande. Liksom vem är vem äger

1:22:55

rättigheterna till dem?

1:22:58

I.

1:22:59

Ja, och det finns

1:22:59

ju, men då kan man ju också

1:23:03

vända tillbaka på myntet. Copyright Ägandet

1:23:04

av dem som äger

1:23:07

Bäst.

1:23:08

som den tränats

1:23:08

på de äganderätt på de

1:23:11

bara och sedan skapar?

1:23:13

Vid jätteviktig

1:23:13

fråga också, men där vill ändå

1:23:15

nästan säga för ja, fast hur

1:23:15

många är det som vaknar upp

1:23:19

och har liksom bott i en låda

1:23:19

med ingenting i hela sitt liv

1:23:22

och som skrev ett mästerverk? Någonstans

1:23:24

har vi ju alla blivit påverkade av vår. Är det information

1:23:27

I.

1:23:27

runt omkring oss.

1:23:28

Jag. Om vi ska avsluta med en

1:23:30

sista fråga Vad är din största

1:23:33

förhoppning? Vad hoppas du är liksom

1:23:39

i framtiden och vad ser du fram emot?

1:23:41

det. Hoppas att AI ska

1:23:42

hjälpa oss läsa mer.

1:23:45

Jag frågade.

1:23:46

Det kan vi nog

1:23:46

stämma in i ett eller båda

1:23:50

två också från den här sidan. känns fullt rimligt.

1:23:55

Är det fullt rimligt. Problem att lösa kanske, men det

1:23:56

känns som ett problem man hade.

1:23:58

Man bör sätta av tid på

1:23:58

att hantera enorma mängder

1:24:01

data och korrigera den för att faktiskt

1:24:04

jag vet inte hur man skulle kunna göra det. Eller eller

1:24:07

vad han nu skulle kunna hjälpa oss med. Men om det finns någonstans

1:24:08

jag hoppas att en vägg har

1:24:11

en jättestor bakgrundsbild

1:24:11

är just att kunna hitta

1:24:15

lösningen på mänsklighetens

1:24:15

största utmaningar.

1:24:18

Och då är ju frågan

1:24:18

definitivt en av de.

1:24:20

Fint avslutat måste jag säga. Mycket

1:24:23

fint. Då gör vi så att du avslutar

1:24:24

vi och så får Rebecka köra

1:24:27

veckans tips den här veckan.

1:24:29

Det var mitt tips

1:24:29

till alla som lyssnar.

1:24:32

Är du less på tjat, GPT,

1:24:32

Bing och allt annat så ska

1:24:38

du gå och googla kapp GPT.

1:24:41

Det är allt du behöver.

1:24:42

Catchy.

1:24:43

Kat C och

1:24:44

Klart.

1:24:45

A.

1:24:45

Vad händer om man googlar Cats?

1:24:54

Det är bara det.

1:24:55

Men.

1:24:59

Nej du, du kan

1:24:59

hitta vägar in när det

1:25:01

gäller hur du kan öppna.

1:25:08

Jag tycker det

1:25:09

Oj.

1:25:09

bara är så

1:25:10

Det är orimligt kul.

1:25:12

att det är så

1:25:12

att när jag bara får

1:25:14

nog, jag bara gör det. Jag tar under 30

1:25:16

sekunder med kraft.

1:25:19

Jag.

1:25:22

Jag. tycker faktiskt inte vi

1:25:22

avslöjar mer än så, utan

1:25:26

folk får bara googla. Kanske epitet.

1:25:30

ju! Tack så jättemycket för

1:25:31

att du ville vara med!

1:25:33

Tack så mycket för att jag fick vara med

1:25:35

Ett Har vi

1:25:35

sagt någonting märkligt.

1:25:37

Man vill tipsa om framtida

1:25:37

gäster eller ämnen så kan

1:25:40

man maila till taktiker

1:25:40

ett gym med punkt com.

1:25:43

När man lyssnar på denna så

1:25:43

antar jag att man lyssnar i sin

1:25:46

favoritsport spelar massa på. Passa på och prenumerera och

1:25:48

betygsätta oss där vi finns på

1:25:52

i princip alla sociala medier. Misstänker att vi har

1:25:53

inte missat något, men.

1:25:56

Tick tack. Instagram, Twitter, Facebook,

1:25:59

LinkedIn, you name

1:26:01

it och finns med oss där vi inte finns så mejla

1:26:02

oss så löser vi det också.

1:26:04

Vi lägger Rebeckas

1:26:04

kontaktinformation i

1:26:07

kör notis om man vill

1:26:07

hitta henne på internet.

1:26:11

då tackar vi Rebecka

1:26:11

för denna gången och

1:26:14

Tack så mycket!

1:26:14

och ses vi och

1:26:14

lyssnar nästa vecka.

1:26:17

Jag har ju.

1:26:18

så ses vi på måndag. Ha det!

Unlock more with Podchaser Pro

  • Audience Insights
  • Contact Information
  • Demographics
  • Charts
  • Sponsor History
  • and More!
Pro Features