Episode Transcript
Transcripts are displayed as originally observed. Some content, including advertisements may have changed.
Use Ctrl + F to search
0:30
Hej! Välkommen till Sekten podcast
0:30
på den där vi diskuterar,
0:33
dissekera och om vi har tur
0:33
informerar om sekt teknik.
0:37
Det är så
0:37
roligt och så roligt.
0:39
Från att knappt kunna sitta
0:39
och inte hålla masken till att
0:43
dra den här med världens fest.
0:45
Jag vet inte riktigt hur du gör det.
0:48
År av träning
0:50
År av träning. Ett år av träning.
0:54
Ska vi låta denna stelheten
0:54
gå över fort som bara den
0:58
och släppa på våran gäst.
0:59
Kör.
1:00
I dagens avsnitt har vi en gäst. Hon är princip researcher på
1:02
Ericsson Consumer Industry.
1:07
Hon är en av grundarna
1:07
av tankesmedjan.
1:10
Är det AI som är att fokusera
1:10
på oss i samhälle och framtid?
1:15
Utöver det så studerar han
1:15
också som industri doktorand
1:18
vid Handelshögskolan i
1:18
Stockholm där han undersökt
1:21
integreringen av artificiell
1:21
intelligens i organisationer.
1:25
Välkommen till Kärlek Podcast
1:25
Rebecka Sedering Ångström.
1:29
Tackar tackar tackar tackar! Det är fantastiskt med rök från.
1:36
Men jag försökt öva på
1:36
den här nu i 20 minuter innan
1:42
den sitter där
1:43
Vi ska inte erkänna att
1:47
Men vad är detta? Hög nivå, låg ribba
1:49
Ett
1:51
och rykte och forskare.
1:53
Kan man så
1:54
hamnar man på den
1:55
kan man säga det.
1:58
Vad ska du kalla dig då?
2:01
Vi börjar öva. Vi behöver de rätta frågorna
2:02
till identifiera hur vi själva.
2:06
När vi forskar är det
2:06
är det som är så roligt.
2:09
Jag är inte en teknisk forskare
2:09
utan jag tittar på människor
2:12
och beteenden, förväntningar på
2:12
ny teknik och hur vi integrerar
2:16
teknik i våran vardag. Och jag har de senaste sex åren
2:18
egentligen bara tittat på AI.
2:22
Så ja, kanske kan man säga
2:22
att man är i forskarlag.
2:25
Och det är en väldigt bra fråga.
2:27
Prova
2:28
Jag tycker det.
2:30
ikväll.
2:31
Ikväll var jag ikväll uppe
2:35
anar man hur man kommer in på det. Jo.
2:37
Bakgrund inom industrin Befann
2:37
ingenjör för tusentals år sedan
2:42
och väldigt fascinerande vad som
2:42
händer i mötet mellan människa
2:45
teknik och så här tittat
2:45
på den typen av forskning.
2:48
Jag jobbar på som det. Asså nu när förstår du hur
2:49
gammal jag är som också
2:51
pratar om att jag haft en C64? Men men, nu är
2:57
Jag. väl 16 år? Tveksamt. Och där har forskare
2:59
tittat på just det här.
3:03
Vad som händer med människor gör
3:03
det svårt när dom tittar på vad
3:06
som händer i människors liv, när
3:06
man bör använda ny teknik och
3:09
senaste fem åren eller för att
3:09
hälsa på på Handelshögskolan och
3:13
gjort samma sak fast egentligen
3:13
går förbi Separator och så
3:17
hamnar jag här och ni är här. Där är
3:19
höjdpunkten var
3:21
Yes!
3:22
hitta
3:23
Att berätta att jag
3:23
tänker är om vi ska prata och
3:27
i samhällets implementation
3:27
så finns det väl ingen
3:30
bättre i så fall tänker jag.
3:32
Vi måste säga nej då. Helt rätt. Men det finns jättemånga
3:34
som är superbra. Men det är olika
3:36
perspektiv och vi har olika fokus.
3:39
Så nu kommer ni få ett perspektiv av mig.
3:41
Det är bra det. Hur hamnade du på Handels?
3:44
Var det liksom Erikssons initiativ eller var det ditt eget?
3:47
Både och. Jag hade väl peppat och
3:48
pratat länge om att jag ville.
3:51
Jag mindes ju doktorand tjänst
3:51
och tittar just på egentligen.
3:54
Från början var det av etik. Sen gavs möjligheten att
3:56
konstruera islam där jag sitter
4:00
och jobbar är en del av nu och
4:00
vi har jättemånga samarbeten
4:05
med akademin och då gavs den
4:05
möjlighet och jag fick fick den.
4:08
Men jag lyckades ta den. Som så många andra
4:09
hamnar jag här.
4:12
Och vad innebär det? Ska vi börja med den absolut
4:14
mest grundläggande frågan Hur
4:18
definierar vi aids i det här? Och hur definierar du oss?
4:22
Den lätta frågan börjar med match.
4:25
Det är ju grundläggande för
4:26
Ö. Ö.
4:28
nu då. Helt rätt eftersom vi aldrig
4:29
kommer att prata om samma
4:31
sak för vi har helt olika
4:31
bild på vad jag tycker.
4:34
Kan vi börja med en
4:34
dålig definition på i.
4:37
Gör det
4:38
En av de roligaste
4:38
och sämsta destinationer
4:42
jag läst om och det är
4:42
information från akademin.
4:46
Inga namn nämnda, men
4:46
där var det någon som
4:49
definierade att det ligger
4:49
hela tiden i framkant.
4:52
Man pratar om när det är fest
4:52
och liknande, liksom att saker
4:55
och ting flyttas fram och så
4:55
fort någonting blir väldigt,
4:57
tillgängligt för allmänheten,
4:57
då slutar vi, ser oss som
5:00
intelligens och då helt trillade
5:00
ur begreppet som i begreppet
5:03
liksom flyttas framåt helt,
5:03
ska alltid vara framåtlutande.
5:07
Och då var definitionen. Kortfattat von Euler
5:09
kom next en komplett.
5:12
Och då blev man säga jaha,
5:12
men hur jobbar jag med sånt?
5:16
Vad ska jag säga att jag
5:16
studerar om jag studerar då
5:20
ska jag titta på något som
5:20
finns här och nu, om det
5:23
är vad som kommer härnäst. Så det var kanske min favorit
5:25
definition på en sats.
5:28
Jävligt het men min
5:28
egen definition.
5:30
Jag tror att det finns ett. Det finns en annan bra
5:31
distinktion är socker.
5:34
Koffein gjorde det i
5:34
hennes senaste bok och
5:37
hon delade upp AI som som
5:37
dryck som ett generellt
5:40
begrepp som liksom väver
5:40
in massa olika saker i det.
5:43
Politik och ekonomi och massa olika saker. Det är liksom AI.
5:46
Men när hon pratar om specifika
5:46
placeringar och pratar om
5:49
vilka teknologier det är,
5:49
om han skildrar arboretum
5:52
eller om en specifik sport
5:52
eller någonting annat.
5:55
Det tycker jag är ganska vettigt. att man försöker vara
5:56
så konkret som möjligt
5:59
när man pratar om det.
6:00
Låter väl ganska rimligt kan jag tycka. Jag läste den här.
6:03
De har ju en på Linköpings
6:03
universitet tillsammans med
6:06
Helsingfors och reaktor Element
6:06
och den definitionen som du tog
6:11
först var ju den som de sa att
6:11
det finns många definitioner
6:14
med att följa den och det
6:14
var det som fastnade bäst.
6:16
Att det som vi det som en
6:16
dator inte kan lösa och
6:20
när den väl löser det så
6:20
flyttas gränsen och man.
6:24
Men det är sant
6:24
och det ligger ju någonting
6:26
i det, men samtidigt hopp.
6:29
Vad gör jag mer
6:29
Öppet jobbar
6:29
jag verkligen med?
6:32
Eller jobbar jag egentligen bara med data?
6:34
Då är jag ingen
6:34
forskare utan heter.
6:40
Dagens
6:40
skämt Vad är en AI?
6:42
Forskare
6:44
Ta upp
6:47
kunde inte hålla sig på att.
6:49
att det
6:49
visserligen ska på en gång
6:54
I.
6:55
Det är hög nivå nu är hög nivå.
6:57
Badförbud. men jag tror att vi kan
6:58
konstatera i att det att
7:00
det är ett otroligt svårt
7:00
begrepp att hantera.
7:04
I.
7:05
Och jag tror att om
7:05
man går ut på gatan så kommer
7:08
det få massor med olika svar. Frågan rör liksom folk att
7:10
definiera ett verktyg, en
7:13
hammare, så kommer man har
7:13
andra saker, blir arg och
7:17
fylla med nästan vad som helst.
7:19
Men vad är liksom? Vad skiljer vi från marknads
7:20
ploj och vad som faktiskt är?
7:25
På riktigt och i
7:25
indoor walking svett.
7:29
Det har blivit ännu ett vad
7:29
ska man kalla inflation på?
7:34
Folk som använder just det
7:34
här är en avi kamera eller
7:37
det här vi använder AVI för
7:37
det här är ju avi överallt
7:42
och var faktiskt avi. Och vad är egentligen
7:44
ganska simpla algoritmer som
7:47
utför någon typ av uppgift?
7:50
Så vad har vi den gränsen för?
7:52
det här är ju lite
7:52
läskigt att prata om tycker jag.
7:55
Därför att för inte så
7:55
länge sedan ni skrev.
7:57
Nu ska jag vara ärlig med
7:57
mina egna tillkortakommanden.
8:00
Inte för inte så himla
8:00
länge sedan, kanske några
8:03
månader innan GPT är slut,
8:03
så tycker jag att det verkar
8:08
som att vi är på väg in i. Jag är ju inte just av
8:09
den anledningen att.
8:12
Vi pratar mindre och mindre. Mai Det var liksom inte
8:13
lika aktuellt längre.
8:16
Det kom inga jättestora
8:16
genombrott och folk
8:19
började prata och fokusera på andra saker. De pratar om teknik.
8:23
Organisationen var nästan tillbaks. Prata, digitalisering
8:24
och liknande. Och sedan följer jag bland
8:26
annat Ett litet sanningens timme
8:30
som jag följt under väldigt
8:30
lång tid i min forskning.
8:32
Och så börjar vi prata om det
8:32
här med algoritmer och Alexa
8:35
chi eller något liknande. Och så säger liksom jag men
8:37
när var det som var bara hur
8:40
jobbar ni med mig liksom? Eller komma med det här i?
8:43
Hej! Nej det bor en
8:44
kille med killarna. Jag var
8:48
Inte den del av.
8:49
inte det. En del av mig är det
8:50
inte utan pappa är det
8:52
liksom när det är katt som
8:52
agerar utan mänsklig hand.
8:56
Barnen. Det var deras syn på det hela.
8:59
Och så tänker jag att jag har mer om var barnet redan förflyttas.
9:02
Så vi börjar prata mer om energin. Barnen i organisationen
9:04
är de med i allting annat
9:06
och då kanske är så att
9:06
begreppet håller på flyttas
9:09
framåt ytterligare en bit
9:09
så att maskininlärning
9:11
blir även om när de hjärna
9:11
som trillar ur begreppet
9:14
sen kommer att repetera
9:14
och så blir det samma ord
9:17
Aj. Men funkar det utan
9:19
mänsklig intervention i
9:24
intervention får du det.
9:26
De håller på och modifierar den
9:26
konstant för att folk lyckas
9:30
få den till att spåra ur. Allt för.
9:32
Agenter för olika
9:32
skaft och så himla mycket det.
9:35
Ja, alltså jag frågade
9:35
med lite örtsalt.
9:38
Hörs det mer än träffande
9:38
i skogen om ingen är där?
9:41
Ja, den modellen finns ju där.
9:44
Eller den kommer ju fungera
9:44
men men, den hade jag aldrig.
9:48
Den hade ju aldrig
9:48
fungerat utan all sin data.
9:50
Den datan genererad av
9:50
människor så att säga.
9:53
Den hade inte funnits men är. Nu finns den ju.
9:56
Visst, det finns ju en
10:00
Fatta. Ska vi ta ner den här nivån
10:01
lite grand och inte fortsätta
10:06
ställa upp med att gå in på
10:06
Har haft en bra teknik vecka.
10:10
Nej,
10:11
Mig
10:12
öppna enbart med det.
10:14
Ja är. Jag har ju precis då sist av
10:15
alla i världen skaffat mig.
10:19
Vilket är ett fantastiskt verktyg men det
10:19
jättelångsamt så jag har
10:23
suttit och bråkat med det. Men min största utmaning är du
10:25
lyssnade jag på ett tidigare
10:28
och ett av era tidigare avsnitt. Det är att jag har en
10:30
med Kasparov och jag
10:34
Du har det.
10:35
och jag är spelnörd.
10:38
Så att jag gillar
10:38
ju att spela spel.
10:41
Och mitt favoritspel i kosten
10:41
är ju det med brädspel.
10:50
Det tar upp
10:51
Jag hoppades vi skulle komma dit. Jättekul
10:54
det är
10:54
jättekul att stöpa
10:58
med.
10:59
ljus och uppätet,
10:59
att jag är där jag är.
11:03
Jag är spelnörd. C64 i lågstadiet och
11:05
vi började spela både
11:09
Warcraft och jag är med i.
11:11
Jag spelar
11:11
fortfarande i hjärter.
11:13
Nu hinner jag. Men jag spelar dataspel. Min man spelar mycket.
11:16
Vi spelar jättemycket brädspel med vänner. Vi tar med oss alla super
11:18
nördiga så att de håller
11:20
på med liv och skit. Men med just brädspelet i
11:22
magen vart vi så roligt.
11:29
Jag spelar med mina kollegor
11:29
och de är liksom även spridda
11:32
över Sverige och vi går in
11:32
och vi nya banor och det
11:35
är så det var och sen nu. Problemet med utmaningen är
11:37
att chatta med inte funka.
11:41
För om du skapar ett sim innan
11:41
och sedan går du in i spelet,
11:44
då har vi inte varandra som
11:44
försöker skrika fast ändå ingen
11:47
som pratar man inte samma rum
11:47
och så måste man gå över och
11:49
starta om och så måste man
11:49
space starta ett spel sakta.
11:53
Det här tog det bättre att
11:53
prata om timing för oss och jag
11:59
tänkte fråga mig om min teknik. Men jag har inte haft
12:01
så mycket ny teknik. Men det här, det här var
12:03
det här var min botten.
12:05
Och det var så min teknik vecka har faktiskt.
12:09
Jag sitter och skriver
12:09
beslut fysiskt för tillfället
12:11
och jag älskar det. Det är min största räddning.
12:15
Dessutom som dyslektiker.
12:18
Det tror jag de flesta på dagarna med. Ett. Att skriva på engelska
12:19
utan vad jag har ha.
12:23
Det går ju inte längre. Det går ju.
12:27
Men det är klart med
12:27
likhetstecken under och jag har
12:30
haft en väldigt bra vecka med. Men jag vet inte vad.
12:33
Var mer som att den är långsam.
12:34
Men det kanske att
12:34
vi har enorma dokument eller
12:37
jätte jättemånga anmärkningar och med vem är jag?
12:43
Jag är ju där i så roligt för
12:43
att jag tycker att jag sitter
12:47
och skriver på min kappa. Jag är ju i slutet
12:49
av min avhandling.
12:51
Vad alla andra liksom
12:51
har haft här hela tiden.
12:54
Och jag förstår
12:55
Ett.
12:55
att bakåtsträvande.
12:59
Då har du en uppförsbacke. för när man startar du i slutet.
13:02
Man måste ju ha lite och
13:03
Öppna upp
13:05
Byggs berget på?
13:07
för jag var här. Men jag vill också
13:09
ändra mig någonting.
13:11
Och så ska jag säga vad jag ska tänka på, för den nya meningen blev bättre.
13:15
Men vad ska jag
13:17
Men
13:17
och
13:18
har du?
13:19
som har hänt? Ska skulle tänka på
13:20
att det fruktansvärt.
13:22
du premium versionen?
13:23
Ta.
13:24
Ja, jag har ju också,
13:24
men jag har stängt av typ.
13:28
Vad är det? Det är någonting den konstant
13:28
klagar på att den sätter.
13:33
Om man skriver diss i början
13:33
på en mening typ så tycker
13:36
man att den har en okänd
13:36
man hänvisar till något
13:39
Att.
13:39
okänt. Fast den där vill jag
13:41
inte se fler gånger och då släppte den ju typ på.
13:46
Och vi har även när jag ska experimentera lite med
13:49
min.
13:50
vilka du vill. Speciellt att jobba
13:51
i Word för där är det väldigt, väldigt lätt att
13:54
Men.
13:54
Men nu kommer du att ha
13:55
en med quest prov. De är ju jätte nya med jingeln
13:58
Jo, men jag har. både en mental coach två
13:59
och en plan för att få.
14:02
Jag älskar
14:02
här Det Det var
14:05
i.
14:06
men det är för att
14:06
jag har ett sådant fantastiskt
14:09
roligt jobb, för att vi behöver
14:09
kunna sånt här och använda
14:12
oss av av den här tekniken. Och då måste du få
14:14
pröva den också. Så att min kvar i det här.
14:17
däremot har jag ju
14:17
problem att jag får inte
14:19
Sir Alex eller VR legs. Jag slutar inte må illa
14:23
så att jag använder
14:23
det för jobbet.
14:25
Vi använder det, vi har det och
14:25
liksom har konferenser och då
14:29
funkar det bra med att jag kan
14:29
ha min dator och ändå variera
14:32
ver konferensrummet och så. Men det enda spelet jag fixar
14:34
än så länge att rita av så
14:37
nära en meter är en bit.
14:41
Men det är liksom bara
14:41
hade med 17 däck så jag
14:44
har roligt och älskar det.
14:47
Men jag kan se när du sovit i det att man
14:49
sitter i samma rum.
14:52
Då förstod jag charmen. För just det här att
14:56
kunna få ihop folk och
14:58
sitta hemma och spela brädspel
15:00
vara
15:00
en grej, men inte helt enkelt för han har kompisar
15:01
som bor runt omkring och stan
15:04
som också gillar brädspel. Inte
15:06
va?
15:07
Så att
15:08
Max.
15:08
en quest är ju
15:08
det hade varit grymt.
15:11
Alltså. Det är jätteroligt. Men vi spelar mycket. Vi har ju vänner som
15:13
vi spelar mycket med. Är vi i full blom även
15:15
om vi bara fått se honom?
15:19
Nu är vi inne på
15:19
Frost tiden alltså.
15:21
Vi är. Det spelas nattvandrare
15:25
Men det är ju
15:26
det är det jag.
15:28
Men jag fattar inte varför du flyttar in det i
15:30
Ja och
15:31
och du har ändå bra argument och
15:32
asså det är jätte
15:32
jättebra men kolla om det går.
15:37
Det går inte att jämföra med de
15:37
här riktigt stora tunga spelen
15:40
som gummiband. Men men det är fortfarande
15:42
en charm i den.
15:45
Alla dessa pluppar och grenar. Man måste hålla reda på allting annat
15:46
för att bli av med i spelet.
15:50
upphör.
15:53
Så det enda jag behöver göra är ett fönster och så kan man zooma in.
15:56
Så kan barn liksom på brädet där
15:56
jag ser mig, min gubbe gå fram.
15:59
Jag får alltid spela tanken
15:59
så liksom när jag går in
16:02
där och sätter igång och
16:02
aktiverar denna massa.
16:05
Är inte så roligt. Så det Så det är så löjligt roligt så jag
16:08
spelar det faktiskt ibland
16:11
själv och sköter alla.
16:13
Sju.
16:14
Men det är
16:14
ändå en fråga som känns
16:16
glödhet ändå. Det
16:18
ja var?
16:19
Ska vi gå in på de
16:19
nyheterna vi har med oss?
16:23
Och så kan vi avsluta med ännu mer jobbiga frågor sedan när vi
16:25
har lite mer vi har pratat om.
16:29
stort.
16:30
Vi börjar med den första och
16:31
det är att Spotify i sex
16:33
veckor har släppt en AI
16:33
i tid som vi kallar det.
16:37
Och jag tycker
16:37
att det är en sak.
16:42
Men kollar man lite närmare på det så verkar som
16:44
att de har tagit sina rekommendationer som de redan
16:46
har med sin rapport och sina
16:48
rekommendationer.
16:50
Hon slår den på vad de gillar
16:50
för låtar, vilket kanske är
16:54
vet jag inte men sen så har hon
16:54
satt in att man lägger in en
16:59
genererad röst på detta som då
16:59
ska vara byggd för dig utifrån
17:04
vad du tycker och tycker. Men när man läser Times
17:05
version i deras editor
17:08
så har din och jag mer
17:08
kopplat lite koppling mot.
17:12
Vissa arrangörer är det
17:12
ändå som använder sig av.
17:16
så har du nått så långt efter förra
17:16
året så inte så nyttigt Som
17:19
är ett AI som genererar röster.
17:23
Grey en titel
17:24
är vi lärare av något slag.
17:26
som kombinerar det här med opera. Jag har kört KBT och på så
17:31
sätt kan leverera en studie som
17:33
pratar med. dig. Och jag tycker att det
17:34
känns jätte onödigt.
17:36
Jag vill inte att de pratar en hel del musik.
17:39
Jag tycker det är bättre att man bara får lyssna musik som är
17:42
lite klippt ihop och som man får
17:44
visa på sköna transitions.
17:46
Men att höra som du
17:46
pratar om att du skulle
17:49
få en go ton från när
17:49
du var ung och det var
17:52
sommar, nej tack.
17:56
Men det låter ju som
17:56
nån slags grej till deras råd.
18:01
För de har ju den här radio funktionen som också ska mixas med låtar från all
18:03
världens låtar och matcha
18:07
dem med din musiksmak. Men att de då har gjort en
18:08
enda röst som baseras på öppen?
18:12
Är jag kört GPT på nåt sätt
18:12
och så ska den läsa upp roliga
18:16
klipp emellan så att det
18:16
ska bli lite radio feeling.
18:18
Jag såg någon på Tick tock
18:22
som berättar att den finns bara i USA,
18:24
Kanada än så länge och därmed
18:27
den här hösten var. Inte naturlig.
18:29
Den var väldigt knepig
18:32
och den tillför ingenting. Och det här med att vara haft
18:34
klippningar eller transitions
18:37
mellan låtarna är inget nytt. Det har vi haft tidigare
18:38
på andra sätt, så jag
18:41
förstår inte varför de ska ha en attityd.
18:43
Det är jättemärkligt
18:45
Men då är ju frågan
18:46
det aliens eller Idag är
18:47
är det en avsky
18:47
i sig eller är det ett
18:52
inlärnings algoritm?
18:54
Vi har faktiskt värde. Detta är ett sätt
18:56
att nå Italien.
18:59
Nej, jag vet, jag kan
18:59
ingenting om sport i Paris nya.
19:02
Jag vet ju att jag kanske
19:02
önskar lite mer av deras
19:05
algoritmer än när det kommer
19:05
den här veckans från Lisas och
19:10
idag är ju liksom lite av en
19:10
höjdpunkt hemma i våran familj.
19:14
Men eftersom vi är fyra som
19:14
som spelar musik i bilen så
19:19
har man delar man i konto. Det är bara en som är kopplad.
19:22
Det kan inte vara så lätt
19:22
att byta mellan konton och
19:24
också hemma på Sonos är inte
19:24
alltid så lätt att byta.
19:27
Så får jag alltså mina
19:27
barns musik av min mamma.
19:32
Han finns, Hon ser grejer också
19:32
och det är en av grejerna.
19:36
Men absolut, jag gillar det.
19:38
Jag gillade också crust punk,
19:38
men kanske inte fullt så mycket
19:41
som min dotter om vi säger.
19:44
Öppet, rimligt, rimligt.
19:47
Men de lanserade
19:47
då och då missat.
19:50
Men de har lanserat en
19:50
funktion som man kan undanta
19:52
hela spellistor från deras
19:52
rekommendation system.
19:58
Var.
19:59
Så väl om det jag har lärt ut i Sverige. Jag har faktiskt provat det,
20:02
men det var en nyhet för
20:03
ett par veckor sen. Men vill man ha en AI röst
20:04
som analyserar alla låtar?
20:09
Hej, nu kommer det musik
20:09
från nu, nu kommer jag.
20:12
Jag släppte Spotify. Jag tjuven
20:14
du kan nåt annat. Men vill man vill man
20:17
ha en video som bara.
20:21
Hej! Här kommer låtar från
20:21
när du gick i högstadiet.
20:26
Det känns som att du är på
20:26
en nostalgisk resa just nu.
20:30
Aww. Nej jag vet.
20:34
Men kan man konversera med den? Kan man prata med
20:37
nej. nej, nej. Det är mer som
20:38
det är, mer som en
20:41
För det finns fler fördelar. Liksom om man går om
20:42
man lyssnar på en roll i
20:45
Sverige idag till exempel. Om den här låten är
20:46
faktiskt ett bra band.
20:49
Detta ska man fråga om en konversation och få reda på något.
20:53
Det skulle jag. Men att någon kommer
20:54
och pratar med mig ses som en nostalgisk resa.
20:58
Låt mig öppna den
20:58
här ljudfilen åt mig.
21:03
Mest har jag tänkt
21:03
att jag efter.
21:06
Nej, jag känner detsamma.
21:08
Och visst, jag har provat den men
21:09
inte att jag känner att jag vill ha det så.
21:12
Kan se som syftet i denna är
21:12
att man ska kunna styra sitt mod
21:18
efter som tidigare
21:18
kunnat trycka på knapp
21:21
och säga men nu vill jag ha mer
21:21
som aptit när jag redan bytt.
21:24
Nu vill jag ha det här
21:24
modet och det kan jag se.
21:28
Syftet är att man slipper byta
21:28
spellista, att man har en.
21:31
Genomströmning av musik som
21:31
man kan ändra utifrån vad man
21:34
håller på med eller vad man är sugen på och som man kan. Tråkigt att han
21:36
också lär sig mer om dig själv då och det
21:39
finns ju för och nackdelar med, men det hade ju varit en fördel av det.
21:42
Men det här med snackande rösten det en
21:45
Torkel tack så fort det bara går.
21:48
Kvar.
21:49
Men då har du väl bara
21:49
den vanliga radio för mig och du
21:53
kan välja bit och liknande då.
21:55
Ja möjligtvis inte
21:57
Frågan är om det här
21:57
är Spotifys första steg att
21:59
ta jobbet från riktiga Digest. Ett uppe i usa parti mod
22:03
att denna app är öppet
22:12
sport.
22:14
Jag. tror vi användes på
22:14
två väldigt olika sätt.
22:16
Ja, nu man får den här
22:16
analysen i slutet av varje år.
22:22
Jag hade tröjan över
22:22
60 000 lyssnande timme.
22:25
Jag lyssnar ju fransar,
22:25
jag lyssnar konstant.
22:28
Men jag lyssnar när jag jobbar. Jag skulle inte klara av att
22:30
någon kommer in och pratar
22:32
med mig då jag sitter där. Ska precis formulera den
22:33
här meningen eller tänka på
22:36
nästa steg och så kommer de
22:36
och ba men nu är det vecka.
22:39
Det verkar softa idag. Bara att sitta hemma.
22:42
Mest lyssna på det här
22:42
med för det funkar inte.
22:46
Men men är absolut så. Håller du på och lyssnar och
22:47
red för att ut och tränar eller?
22:51
Pendlaren.
22:52
då vill man ju inte tappa bytet tänker jag. Om man då tränar.
22:55
hon har någon som pratar med ett bits
22:58
Kämpa för backen.
23:00
uppåt
23:01
En kombination mellan
23:01
Spotifys AI, Diddy och Strava
23:06
nu? Nej, nej, nej. Nu
23:09
lägger vi locket på här. Gå vidare och ta nästa
23:13
Nästa. Vi har ju varit inne på det lite,
23:15
men köttbiten har ju
23:15
kommit in i bilden på
23:20
sätt och vis med en liten dummare variant enligt mig.
23:24
Och. De har gjort ett
23:25
test och jag har inte pratat så mycket om vad
23:26
de använt, men de har använt
23:30
Cove disc information enligt dem
23:30
som är skriven av kött tribute
23:35
som de sedan efterfrågar
23:35
genom bingo saken
23:38
och att den då skriver om
23:38
detta utifrån och sätter
23:40
betyg och skriver ut. Och det som blir det läbbiga här
23:44
är ju att då blir det AI som tränas på och som
23:47
skriver tillbaka. Det som har jag skrivit, vilket är
23:51
enligt mig generar tid, tjat och gynnar inte
23:53
vari de största problemen. Att vi kommer hamna i en
23:55
ond spiral när alla har
23:59
en tränare och ingen vet
23:59
vad som är riktigt och
24:02
är skitsnyggt hur du kan göra. Det här är precis precis
24:03
det jag har kämpat då.
24:06
Och ja, mitt jätteproblem.
24:09
Och i den här har man märkt att då
24:11
väljer man ta skriven text
24:14
utifrån en person som var väldigt kritisk mot
24:17
också en så stor
24:17
massa disskusion.
24:20
Och sen så har vi kört repeterat, bakat
24:20
som om det vore fakta eller
24:24
blanketter på det. Och det är ju så du visst,
24:26
du får tycka vad man vill om
24:30
vi då desinformationen runt
24:30
den, men det är ju inte det
24:32
enda ämnet som skulle kunna
24:32
bli problem när man gör så.
24:35
Och jag tycker man ska hantera det och det bör man kontrollera för
24:38
mycket. Då blir det helt plötsligt. Då finns inget syfte.
24:41
Har satt det enklare för då blir det ju för kontrollerat och.
24:46
Man kan också då ha ett
24:46
företag som väljer och inte
24:49
väljer vilken information som
24:49
ska släppas ut till folket.
24:52
Det är också läbbigt. Nu pratar jag och andra även
24:55
Ja, det är
24:55
vi ju inte här inne.
24:58
Men det är jätteviktiga saker
24:58
du tar upp och där är vi liksom.
25:01
Kanske det som inte så
25:01
många hunnit tänka på.
25:04
Jag brukar, brukar det
25:04
låta som att jag inte hängt
25:07
med på GPT förra året. Men jag har vid ett antal
25:09
tillfällen försökt förklara
25:11
lite som att det nu speglar
25:11
dig i din egen data någonstans.
25:15
När du skriver in och begär någonting och så får du någonting tillbaka.
25:18
Jag har sett det här
25:18
så marknadsför folk på
25:21
LinkedIn som om jag ställt
25:21
den frågan till köket.
25:24
T om vem är det bästa
25:24
företaget eller det liksom?
25:27
Och så får man tillbaks bilen själv och det känns så stort och smått.
25:30
Idag så vill man gärna lita
25:30
på det och känna om just
25:35
det
25:35
Visst gör det
25:38
med modifikation. Men problemet kvarstår ju
25:39
liksom lite grann att som
25:42
du frågar får du svar. Och om man inte förstår vad det
25:43
är, vad och vart man frågar så
25:49
kan man inte se det här datat. Vad är data träning?
25:51
Så vad är data som ligger bakom? Och om jag frågar speciellt
25:53
bara om ett företag.
25:56
Är det ett pyttelitet företag
25:56
så kanske det finns mycket text
25:58
om det och då hämta in den text
25:58
som finns om det Och allting
26:01
kan bli helt galet tokigt om jag
26:01
sätter det journalister andra
26:03
som har skrivit om det här. det var bingo i det här fallet
26:05
hittade på massa olika saker.
26:08
men, om du säger bara det
26:08
här positiva, då kan det ju
26:11
vara så att det är så att när
26:11
majoriteten av information som
26:14
finns om det här företaget. Det har jag själv publicerat.
26:17
Eller när företaget själva publicerat. Men då återskapade ju bara
26:19
det jag själv vill vill
26:22
förmedla av mig själv. Så ni som någon form av att man
26:23
speglar sig själv i sin data.
26:27
Det var egentligen min stora
26:27
käpphäst också, som jag ser i
26:30
min forskning, att vi har för
26:30
låg kunskap om data och vad data
26:35
är och vad data kommer in och
26:35
hur man använder sig av data.
26:38
Och att vi jag också
26:38
genererar data.
26:41
Data är ju inte något så
26:41
det som finns där ute som
26:43
man, det är inte olja. Det är.
26:46
En resurs som vi alla har
26:46
bidragit till med alla
26:49
våra tillkortakommanden. Och det är väl det som är lite
26:50
problem med SAT, DPT och BIM
26:55
är ju att att väldigt många
26:55
människor kanske inte har
26:58
koll riktigt på vad är det
26:58
här för data som ligger bakom
27:01
och vad har den att tjäna det? Om vi hade det så skulle vi
27:02
och kanske också bättre förstå
27:05
vad det är vi får tillbaka. Det är inte en intelligent
27:07
varelse som sitter där och
27:09
har känslor och vill bryta
27:09
sig ut ur företaget eller
27:14
vill övertyga oss om att
27:14
det är 20, 22, inte 20 utan
27:18
det är liksom all statistik kan man se.
27:22
Arrangörerna Bingo och vi
27:24
De tar min hobby, travar
27:24
lite till och pratar om det.
27:29
Jag har en fråga som ställts
27:29
ena dagen, men den kommer in då.
27:32
Nu ska alla tillgång ta om
27:33
inte för det sitter
27:35
ändå du med din bakgrund
27:35
och vi med det vi kan och vi
27:39
sätter och vet inte ens vad
27:39
vi är ska ska gilla generella.
27:48
Vi får väl vara överens om att vi vet
27:49
någorlunda var vi har någorlunda
27:53
jag är lite
27:53
lite på dubbel sida här.
27:55
Vem är jag att öppet
28:01
I
28:02
och
28:03
kredibilitet i alla fall. När ska alla då ha tillgång
28:09
till AI på det sätt som Djibouti är
28:11
uppbyggt och så
28:11
lättillgängligt som de uppnått?
28:15
Vad är det? 100 miljoner användare på mindre än två månader.
28:18
Det säger ju en del om hur fort det växer och det är
28:20
alla väl, alla möjliga människor och.
28:23
Så få människor förstår
28:24
vad data är som och skall ha
28:27
tillgång till och. ska alla kunna få
28:28
ta emot och utan att
28:31
veta vad det är och inte
28:31
är eller finns förrän
28:35
nu? Är det riktigt så man som
28:35
säga ja eller nej men.
28:39
Nu. Ja, jag är nog fel person att
28:39
säga att vi ska reglera det
28:44
så att bara vissa människor
28:44
ska få tillgång till.
28:46
Jag tror däremot att det
28:46
ligger mer i att vi ska reglera
28:51
det så att vi ser till att
28:51
vi utvecklar ansvarsfullt.
28:55
För jag tror inte på det här, att vissa ska ha det, andra ska inte ha.
28:59
Sen så tror jag att det
28:59
finns ett jättestort behov
29:01
av oss i olika samhällen
29:01
att att utbilda barn.
29:05
Jag vill gärna se att vi börjar
29:05
prata om redan i grundskolan.
29:09
Vad är data och algoritmer som
29:09
det inom samhällskunskapen?
29:12
Faktiskt inte matten utan
29:12
att det här liksom vad
29:15
kommer algoritmer in? Vad är det som gör att jag
29:16
får se vissa saker på Netflix
29:19
och inte på rekommendationer
29:19
om andra heller?
29:21
Först efter att mammas
29:21
spotifylista fylld
29:26
med grönt varje dag. Dags att
29:28
Öppet
29:30
värma det. Men det är mycket viktiga,
29:30
viktiga delar I I våran
29:36
Du. Det är lite som du säger. På tal om vad man matar
29:37
in det man får tillbaka.
29:40
För så är det ju delvis på sociala medier
29:41
och allt mer som att din
29:45
algoritm är byggd utifrån det. Ju så som du är på
29:47
sociala medier och Då
29:50
får du bara. information som bekräftar det
29:50
som du själv tycker oftast.
29:54
Sen kan man göra som mig och
29:54
försöka gå emot det så mycket jag möjligt bara
29:57
går och skapa en annan bild.
30:00
Det håller bara några
30:00
veckor så lär sig algoritmen
30:02
ni använder jag stråket
30:02
för att kunna det också.
30:05
Men samma sak man skulle prata med en
30:07
AI så kommer du. Oavsett vem du är så kommer du
30:09
alltid lysa igenom att du är du
30:13
och det är lite där man kan se
30:13
på en författare om uppfattar
30:16
en viss författare som väljer
30:16
vissa ord eller väljer vissa
30:19
språkval eller funderingar och.
30:22
En på ett sätt att acceptera
30:22
den kopplingen och hans
30:25
ord med ord och gutt Och
30:27
bra kan bara betyda bra Men
30:29
det har helt olika innebörd
30:29
på vad de får tillbaka.
30:32
Nu är ett bra exempel, men ni förstår, Jag menar,
30:35
En.
30:36
Bit
30:36
tror väl det är en stor grej och man ska förstå då att det inte
30:40
bara är att det som du säger, det är inte
30:41
bara att du ställer en
30:44
fråga, det är också lite vilka ord du väljer. Du ställa frågan vad?
30:47
Som du frågar får du svar. En lek som man måste ha men
30:48
också komma ihåg att det jag
30:52
föder in till A är också data
30:52
som bestämmer vilken annan
30:57
data som ska användas för att
30:57
generera ett svar till mig.
31:01
Det var någon som sa till mig
31:01
och jag kommer ihåg vem det var
31:03
men jag tyckte var så roligt
31:03
att det här med det vi håller på
31:05
med nu, det är egentligen på det
31:05
det inte kallas av en det borde
31:09
kallas experimentell statistik.
31:11
Jag tyckte det var
31:12
Oj, det är
31:12
ändå en jag aldrig tänkt
31:15
på och på det sättet. Men det är faktiskt en
31:16
förvånansvärt logisk.
31:19
Parallellt.
31:19
Jag vet inte om jag
31:19
kan stå för vad jag tycker.
31:22
En ganska rolig,
31:22
rolig iakttagelse.
31:25
Absolut. Men okej.
31:28
Men om vi ska fiska tillbaka
31:28
lite till vad vi började
31:32
och mata sin egen Ari, vad
31:32
händer då om vi då kastar in
31:37
tvn i byx på datan Bieber?
31:41
Och om vi ger den en sne data?
31:44
Som kanske inte tar med
31:44
alla perspektiv eller
31:47
som inte är tillräckligt
31:47
diversifierad och sedan.
31:50
Dag A inför. Det finns inte en risk att det
31:52
blir en lavinartad utveckling
31:57
i och som hamnar i ännu ett
31:57
extrem läge i andra änden.
32:02
Men det var inte det du sa Ruben. Det blev som en spiral effekt.
32:06
Det är vad jag tror också det. Inte det här att om vi använder
32:08
de här verktygen nu för att
32:12
generera massa nya blogginlägg,
32:12
shirts och allt annat vad vi
32:16
kan tänka oss titta på och sen
32:16
så använder vi oss av som data
32:20
till att träna nya algoritmer. Det finns ju ingen kodning idag
32:22
att inte koda mitt blogginlägg
32:26
eller vad det här har genererat. Så det kommer ut som inte går
32:28
riktigt att filtrera bort.
32:31
Vad jag vet är kanske de
32:31
som är riktigt duktiga.
32:33
Det här kan jag berätta, men
32:33
det betyder att vi får in mer
32:37
och mer data genererad eller
32:37
genererad data i våra algoritmer
32:42
och sedan vilken effekt det har. Ja, jag tror också att
32:44
det finns en stor risk
32:47
för en spiral effekten.
32:48
I.
32:49
Åh. Då går vi vidare till
32:50
Snapchat för Snapchat har
32:53
också introducerat en chat
32:53
robot baserad på chat epitet
32:58
men en barnvänlig version. Hur?
33:03
Hur ska vi utbilda barn då?
33:05
Ska vi låta barn ta del av?
33:08
Det är klart att barn ska ha en del. Det återvända man.
33:11
Vi kommer inte alltid ha en miniräknare i fickan. De kommer vara experter på
33:13
hur de här grejerna funkar.
33:16
Långt, långt innan. Antagligen vi
33:17
kommer att vara det. Men hur ser man till att det
33:18
är en barnvänlig situation inom
33:23
citationstecken som inte förde
33:23
på farliga ideal och liknande?
33:28
Och vem bestämmer vad som är farligt? Därmed.
33:33
Det är tydligt det som jag tycker är på gott
33:37
och ont. Snapchat har gjort en egen
33:37
version för deras användare och
33:40
där får de göra vad de vill. Skillnaden tycker jag mot
33:42
den som till exempel Bingo
33:45
gjort och likt riktiga TBT.
33:47
Det är väl att Snapchat verkar som om de?
33:49
blockar rätt mycket. Vad som inte är okej och
33:54
de vill att jag ska se är
33:54
nog stor banner, barnvänlig
33:58
version och stabilitet.
34:02
Vad är syftet då? För då blir avskalad
34:03
på sådan stor nivå?
34:06
Kommer den sen att ge dig
34:06
någonting och vad ska du
34:10
ha om man säger som min? Bestämt utifrån att
34:13
företag vill att du ska och inte ska kunna söka efter.
34:17
Då blir det ju helt plötsligt
34:17
Kan du kan de också styra
34:20
vad de får för svar. Kan du hjälpa? Nu tror jag ändå att Snapchat
34:23
är så pass schyssta på.
34:25
Som bolag med ett bolag att
34:25
de inte gör som puttar in
34:29
att du ska mata folk med
34:29
politiska ideologier och
34:33
tankar. Idéer om hur samhället ska vara alltså med allt.
34:35
Men i teorin så skulle de kunna göra det.
34:38
Just nu är det bara. en test variant som är bland
34:39
dess betalande användare,
34:42
men sätter de ute till sen
34:42
är det nog miljoner användare
34:46
och får börja använda det. Då är det ju Vi kan vara dåligt.
34:51
Ja, absolut.
34:52
jag tänker inte uttala
34:52
mig om det är bra eller dåligt.
34:55
Jag kan ingenting om snaps eller
34:55
snaps där bland nära i botten.
34:59
Men däremot så tänkte jag
34:59
ju att jag är två tjejer som
35:02
12 år hon som är tolv
35:02
tillhör alltså generation Alfa.
35:06
Skönheten är i yngsta generationen.
35:09
Och jag är så sjukt
35:09
nyfiken på hur hon kommer
35:13
att navigera av båda två. Hur hon kommer att
35:14
navigera sin omvärld om
35:17
hon växer upp med det här. Om det finns en som är tillbaka
35:19
i sinnet redan nu och även
35:23
om den är kontrollerad och
35:23
begränsad kan man förstå den
35:26
träningen och inlärningen och
35:26
av att kunna kommunicera så.
35:29
På det sättet med våra
35:31
digitala verktyg. det är ju det man går och
35:32
funderar på vad som kommer hända
35:36
härnäst och hur de kommer gå. Jag brukar vara en gammel
35:38
generationen med kommer jag
35:40
aldrig kunna förstå vad de var.
35:43
De har inte ni heller faktiskt. Fördelen med att
35:46
öppet.
35:47
precis säga dig att du är nog den
35:49
Öppet. Det tycker jag är hur
35:51
häftigt som helst.
35:55
Absolut. Vi måste pratar ansvarsfull
35:56
teknologi, ansvarsfull
35:59
användning, utveckling. Det kommer och går, men det
36:00
finns behov av reglering.
36:04
Det kommer reglering. Det är självklart.
36:07
Men ändå tänker. Tänk skillnaden på de som
36:09
och de som kanske inte är,
36:12
liksom vad som är smort. Spädes då.
36:15
En.
36:15
Vilka ämnen liksom? Helt annat sätt att hantera
36:17
och interagera med teknik.
36:20
För att vara någon
36:20
som studerar fortfarande och
36:24
har sett denna under mitt sista
36:24
år så att jag dyker in och hur
36:28
det har ändrat hur studenterna
36:28
runt mig pluggar så skulle
36:32
jag vilja se hur utbildningen
36:32
kommer se ut om några år när
36:36
man måste ta hänsyn till. Den här typen av av
36:38
hjälpmedel för det system vi
36:42
har idag är inte hållbart. Det kommer inte funka för det
36:43
kommer inte testa rätt saker.
36:47
När trottoaren är
36:47
viktigt på lite olika sätt och
36:50
hanterar där det finns lite
36:50
nödlösningar som ligger nära
36:53
i tiden med till exempel att
36:53
någon på tentan frågar frågar
36:56
om negationer i stället att
36:56
det bara var det som inte
37:00
hände det här året eller genom
37:00
det, för det är svårare att
37:03
få ut samma vettiga svar. Det bästa jag hörde då
37:05
kom faktiskt de podd
37:08
jag lyssnade på idag. Det tyckte jag var
37:09
väldigt insiktsfullt.
37:12
Det är att du kan göra
37:12
tenta fråga som läsare
37:14
fråga sagt GPT om det här.
37:18
Vi redovisa svaret
37:18
och sedan förbättrade.
37:20
WHO.
37:21
Det är snyggt. För då handlar det om att
37:22
kunna analysera texten,
37:24
identifiera val liksom vad
37:24
man kan lägga till, förbättra
37:28
vad det var som är fel. Det finns ju de
37:30
som hallucinerar.
37:32
Hur ligger det till? Det kanske inte existerar.
37:35
Du behöver ha koll för att kunna identifiera dig själv.
37:38
Jag tyckte det var ett jäkligt smart sätt. Jo, men självklart kommer
37:40
det här bli en del av hur vi
37:44
numera har det i skolan och
37:44
hur man sköter undervisningen.
37:47
Men vi lär oss ju.
37:48
Det låter som han
37:48
mörkats bra, eller hur?
37:50
Han brukade ju köpa
37:50
sitt kontor nu.
37:54
Skriv in en fråga i
37:54
GPT och hitta felet.
37:56
Typ vilken är de bästa
37:56
mobil kamerorna just nu?
38:01
Och då har de en tävling
38:01
om vem som kan hitta
38:03
flest fel i Vasaskeppet.
38:05
De spottar ut och det
38:05
brukar generellt sett ut.
38:08
Hyfsat rätt saker, men det
38:08
kan ju vara till exempel att
38:12
megapixel antalet är fel på
38:12
en kamera eller det de har.
38:15
Den har angivit fel kamera
38:15
sensor på vilken kamera som
38:18
sitter i en iFån eller liknande. Men det låter ju som en
38:20
liknande grej då att. Stoppa in kött, repetera och
38:22
korrigera och gör det bättre.
38:26
har
38:27
Men jag kan ju ibland
38:27
tycka att det är jag, så jag
38:29
får anta att greppet är så pass
38:29
bra så jag vet inte riktigt
38:31
hur jag ska förbättra det. Jag direkt fel går ju
38:33
lätt att korrigera.
38:36
valt att.
38:37
Men ja, den är
38:37
ju bra på att skriva text.
38:40
men jag tänker
38:40
som jag som då med ett tag.
38:44
Det var ju samma diskussion
38:44
här när Wikipedia kom.
38:50
Panik panik för barnen. Alla som studerar kommer bara
38:52
ta information från Wikipedia,
38:56
men vi måste se det också. Wikipedia finns kvar.
38:58
Folk använder sig av
38:58
Wikipedia, men det är
39:01
väldigt få som skriver in
39:01
det som referens Wikipedia.
39:04
Och är det så att man gör
39:04
det så har man oftast flera.
39:07
Kändes som visa på bio eller något
39:09
Samma sak som. Det där känns som
39:11
en mer lavinartad.
39:13
Nu vet jag i och för sig
39:13
väldigt ogärna Wikipedia.
39:18
Jag kommer inte ens ihåg när det kom, så jag missade
39:20
Att.
39:21
det. Men det här var ju
39:22
inte riktigt det.
39:25
Både panik och förtjusning
39:25
känns det som från många olika.
39:29
För det är ju x antal olika.
39:33
Organisationer med organisationer, organisationer med sektorer som kände sig
39:35
liksom lite lurade i utbildning.
39:39
De rekryterare som känner
39:39
att personer får CV skrivna
39:45
personliga brev skrivna. Det är liksom man kan använda
39:46
det för att göra kod och
39:50
få den till det på riktigt. Utvecklar lättare
39:51
virus i sig, men är.
39:57
Och du kan använda den
39:57
för att skriva meddelanden
40:00
på hem dejting appar
40:00
som är också märkligt.
40:05
Men det kommer påverka så
40:05
många delar i samhället och
40:07
det är många som säger det
40:07
här är en övergående fas.
40:12
Kommer folk vänja sig tror du? Eller är det liksom?
40:16
Kommer man sätta sig på tvären
40:16
eller hur kommer det se ut?
40:19
jättebra fråga. Jag kan bara gissa
40:20
utifrån mig själv.
40:23
Jag tror att man vänjer
40:23
sig när man är 17.
40:25
Det och det har du tagit från
40:25
medeltiden, inte slängt in den
40:29
personen hade haft jättestora
40:29
problem att hantera och ens
40:32
föreslå för som förstå vad
40:32
vi vad vi håller på med.
40:35
Men om man är nämnd
40:35
bekräftade vi vänjas
40:38
Ett.
40:39
klart. Sen så som alla vet är
40:40
utveckling det klart det
40:44
är det gropar i vägen. försöker tänka efter
40:46
lite innan och inte
40:48
bara springa på allting. Det här är processen
40:50
med det blir baklänges.
40:54
För att.
40:55
klubben förbi. Vi behöver kanske
40:58
också stanna upp. Får vi göra det igen?
41:01
Men vad är det? Vad är de största riskerna
41:01
du ser med så vid tillgång på
41:05
till exempel kött eller AI? Finns några specifika
41:07
risker du ser eller.
41:10
det är klart att det finns risker. Jag sitter och
41:11
tänker på det jag. På en dag i 2019
41:13
så publicerade vi.
41:16
Vi gjorde en studie tillsammans
41:16
med Novus och tittade på
41:19
Svenskarna och internet
41:19
och frågade dessa frågor.
41:22
Detta görs. Innan showen är så frågade
41:23
vi frågor i stil med.
41:27
Tänk dig att året är 2030
41:27
och Arne slagit in och
41:30
slagit igenom på bred front. Vad tror du kommer bli liksom?
41:34
Effekten på till
41:34
exempel demokrati.
41:37
Och så var det liksom att vi
41:37
kommer med mindre eller sämre,
41:40
är rotade inom demokrati eller
41:40
vi kan bättre stärka demokrati.
41:45
Eller vi kommer ha mer internet
41:45
eller från dag ett mobilen
41:50
eller vi kommer ha mer. Så fick man en sju
41:52
gradig skala då och.
41:55
Jag tänker på det som var. Vad dök upp där.
41:58
Många tyckte nog att
41:58
de såg att det skulle
42:00
vara mer internet brott. Jag tror att om jag kommer
42:02
ihåg rätt så var det också att
42:05
man fanns en typ fem på fem.
42:07
Men någonting liknande
42:07
som trodde att det att
42:10
demokratin var utsatt. Men just det som var var
42:12
en falsk information var
42:15
också en som verkligen slog
42:15
igenom i den här studien.
42:18
Det finns säkert på
42:18
någons hemsida och hämta
42:20
ifall man intresserad. Och där tror jag väl egentligen.
42:24
En av de stora Hur
42:24
utmaningarna framöver?
42:26
Hur? Hur hanterar vi all denna
42:27
information som nu kommer
42:30
komma travandes och hur får vi
42:30
hjälp att kunna navigera i det?
42:35
det är en utmaning. Det finns säkert, eller det
42:37
finns väldigt många fler,
42:39
men just när, var, vad är
42:39
liksom falsk information?
42:42
Vad är information
42:43
Jag.
42:43
hur hanterar vi det?
42:45
Nej, vad tänkte jag? Falsk information är ju en bit
42:46
liksom att du skapar information
42:51
och det finns något annat som
42:51
du ska bortse från och bete
42:56
sig som att du chattar och
42:56
skapar data i skriven text.
43:01
Finns nån annan AI som ser den
43:01
närmsta tiden som kommer vara så
43:07
när tillgänglig för oss normala?
43:10
Om du bara ser vissa
43:10
vilt och självklart män.
43:14
Men om jag ska
43:14
komma med dissas det.
43:16
Next big. Nej, det kan jag ju inte. Hade jag varit rik.
43:21
men jag kan säga en sak. En rolig grej är att
43:22
du kom på en trend som jag hade för
43:24
ganska många år sedan. Men jag tycker fortfarande
43:26
det var de roligaste,
43:29
någonting som vi kallade
43:29
för mentor och bisittare.
43:34
Det var så jag tänkte,
43:34
för då var det liksom.
43:38
På den tiden var det väldigt
43:38
mycket snack om Alexa och
43:40
Siri och när Google Assistent
43:40
hade de här bitarna och så
43:45
funderade vi lite längre på
43:45
vart båten är på väg någonstans.
43:49
Jo, men tänk dig liksom. Precis som vi har bilen och
43:50
vi har rulltrappor och vi
43:54
har byggt massa teknologi som
43:54
kan förenkla livet för oss.
43:58
Bli smidigare, bli skönare att. Med fjärrkontroll till
44:01
TVn så du slipper bli arg.
44:03
Varje gång du ska byta
44:03
kanal är det ganska
44:06
mycket trevliga saker. Men om du får en assistent
44:08
som kan hjälpa dig att
44:12
ta reda på allting. Som kan svara på
44:14
frågor till exempel. Jag ska nu bjuda Ruben Andreas
44:16
på middag och jag känner
44:20
inte jag så jag vet inte
44:20
vad ni var för mat eller om
44:22
jag lärde sig om någonting. Telefonen ringer så att jag
44:23
blir överraskad så jag kan
44:27
bara fråga mig och så får
44:27
jag liksom ett recept som
44:30
ni båda kommer att älska. En om inte någon assistent
44:32
frågar mig om jag fått
44:35
detta jobberbjudande. Ett. Kan det baserat på informationen
44:36
här företagen eller något annat
44:39
bra hjälpa mig att ta beslut om
44:39
jag ska klara jobbet eller inte?
44:43
Och baserat på mig och min
44:43
kompetens och hur länge
44:45
jag jobbat hos mig eller
44:45
vilka skolor jag ska gå i.
44:49
Eller vilket parti
44:49
de ska rösta på.
44:51
Då är det partiprogrammen
44:51
och den assistenten vet ju
44:53
allting om mig redan, om
44:53
mina förutsättningar, min lön
44:56
och mitt område jag bor i. När slutar jag fråga
44:59
den här assistenten?
45:03
När slutar jag liksom även här?
45:06
Ska tänka själv. När finns den där
45:08
tillgänglig för dig?
45:11
Det kommer vara helt
45:11
omöjligt att inte fråga.
45:14
Och då någonstans börjar vi. Tänk. Men vad händer då med människor?
45:17
Det kan ju bli så här till slut. Om man slutar analysera,
45:18
tänka efter, reflektera
45:23
över saker och ting man har
45:23
frågar så finns svaret där.
45:26
Vi är någon form av och
45:26
en form av och bi kallar
45:29
vi det, liksom allt annat. Så frågade vi konsumenter runt
45:31
om i världen om vad liksom
45:35
de är intresserade eller
45:35
vad man kan tänka sig och
45:37
göra åt det här i framtiden. Som att det finns.
45:40
Hon såg till att inkassera och
45:40
bocka av framtida mentala gym.
45:43
Precis som vi går på gymmet
45:43
och tränar för att vi inte
45:45
får normal vardagsrum. Motion ska man inte behöva lära
45:47
sig att läsa för att göra den
45:52
logiska testen någonting annat.
45:56
Men det tycker jag nästan redan är en verklighet
45:58
i viss mån med god
46:00
hjälp. Det är ju väldigt troligt att matvaror som har
46:03
en sådan risk är skitjobbigt.
46:07
Men att. Många samtal dör ju
46:11
av att man googlar googlade. Jag försöker
46:15
ju ofta. Inte alltid, självklart inte. Men
46:17
säg det med godkänt. Låt oss diskutera och
46:18
se ifall som det bara
46:21
går eller är tråkigt. Självklart vissa rena fakta
46:22
grejer om det kan vara good luck
46:27
med mer saker så inte
46:27
bara svartvita som det
46:31
var så svartvitt annars. Men det är roligare att prata
46:32
om än att googla fram i viss mån
46:37
Ja.
46:38
och det tror att det är det du gjorde. Söker efter svar och du tänker
46:40
att du själv ändå vet att om
46:43
man får Ariel en assistenter
46:43
om du kan, då blir det bättre
46:48
för då behöver du inte söka
46:48
svaret och blir matad svaret.
46:52
Men vad gör det med
46:52
oss som personer och våra
46:55
personligheter om vi inte
46:55
längre måste tänka någonting
46:59
själva utan allting blir matat?
47:02
Är det inte så man säger
47:02
att den generationen vill leva,
47:05
som lever nu eller som håller på
47:05
bli den nya generationen i den
47:09
första generationen som kommer
47:09
vara mer korkade generationen
47:12
innan dess om man mäter hur.
47:15
Ursäkta, men pratar du om mina barn nu?
47:18
själv för att.
47:19
Upp
47:20
och öppet. Väl
47:23
uppe
47:26
med dig, med mig. Det är ju ett.
47:29
Det är ju.
47:31
sanning med modifikation menar.
47:33
Nämen det är jätte intressant när jag nu vbg har varit runt och
47:34
presenterat den här trenden
47:37
förut när den var aktuell,
47:37
då var ju liksom ett av de.
47:41
Nu är det säkert för unga för det här, men det. För länge, länge sedan så
47:43
fanns det en film som handlade
47:48
om en pytteliten robot som
47:48
var lämnad kvar på jorden.
47:52
Den hette Filmen hette Våning.
47:54
Nej, det är
47:54
nog lite för öppet.
47:58
Förlåt att jag var
47:58
tvungen, men när man håller in
48:03
bilden om det här med att att
48:03
man åker runt och glider runt
48:07
med sin lilla bekväma stol. Så jag tror att det att
48:09
det ligger nära till hands
48:13
för många att tänka att det
48:13
att vi kan bli för bekväma.
48:17
I.
48:17
Det var liksom
48:17
när vi presenterat den här.
48:20
Den här trenden. Då har det varit lätt för
48:21
folk att se kopplingen till.
48:25
Det bekväma livet och
48:25
att det kanske inte
48:27
alls är så hälsosamt. Vi.
48:30
Jag inte göra det. För varje ämne som kommer
48:31
in med samma tak blöt
48:36
filt och lägger på den, samt
48:39
Men jag. tänkte inte på det.
48:41
Så jag tänker att vi ska gå in på lite vad är
48:44
möjligheterna och vad är det? Är det positiva?
48:47
Vad kan man göra för att
48:47
prata om ekonomi liksom?
48:50
Vad kan medför risker? Vad kan gå dåligt
48:52
och hur ska man tänka? Men de som jag
48:56
kommer långt med mitt jobb bor ju mycket jobb där. Jag har varit inne på det
48:58
lite, men vilka jobb
49:00
kommer skapas har
49:00
jag funderat på.
49:04
Jag tänker att det där eller
49:04
är det mer bara att jag
49:07
bara kommer försvinna eller?
49:08
Jag tror det. Man pratar inte om att det
49:11
är hela jobb som försvinner.
49:13
Är väl så hela jobb
49:13
som försvinner.
49:16
Det är ju tasks som blir övertagna och vad
49:21
som händer.
49:22
som försvinner kanske
49:22
och sedan går över till vilka
49:24
som skulle kunna skapas av
49:26
Det var faktiskt det där jag
49:26
kände att det var där jag
49:28
hamnade.
49:29
börjar att.
49:31
Men jag skulle bli ledsen för det här. Jag vill bygga på
49:32
den här storyn. Det.
49:35
Om du har en arbetsuppgift
49:35
som blir övertagen av energi,
49:40
det frigör i det också mer
49:40
tid hos dig och då kanske du
49:43
kan be mycket om det liksom.
49:46
Det är massa mycket runt
49:46
egentligen en och kan göra och
49:50
då kan du använda den tiden
49:50
till att kanske förebygga den.
49:53
Jobba vidare, skapa nya saker,
49:53
hitta nya arbetsuppgifter.
49:57
Du förändrar ditt arbete. Sen kommer jag att utvecklas.
50:00
Jag köpte en annan torsk. Men då är ditt jobb fortsatt
50:01
att utveckla och tänka
50:04
vidare vad du kan göra. Ja, jag tror inte man ska prata.
50:08
Är det jobb eller typen av yrken? Det här yrket försvinner och
50:10
det här yrket kommer till
50:13
utan det blir mer att titta på
50:13
liksom över ett bredare spektra.
50:16
Olika yrkeskategorier
50:16
liknande saker hur kan och
50:18
kommer att utvecklas och
50:18
förändras och förändras på
50:21
grund av att teknologin.
50:22
Du är mycket mer positiv än jag är.
50:25
Haha. Oj
50:27
Jag har ett totalt
50:27
katastrof tänk när det kommer
50:32
till där jag står och slänger
50:32
upp allt med robotar, inte bara
50:38
som en tänkande maskin utan mer.
50:41
Nu kommer vi ha robotar också
50:41
som kan utföra tasks och så
50:44
slår du ihop dem med dem. En AI som börjar tänka
50:46
själv och som kan skapa
50:48
information och blir fördummad.
50:52
fördömandet av samhället och allt vad det. Vi bara som det kallas,
50:55
självscanning på ICA.
50:57
Det är typisk sån grej där vi
50:57
tar bort jobb för att ersätta
51:02
Schenker så fort de har så
51:02
många anställda, brukar fylla
51:04
på hyllor och göra grej och
51:04
hjälpa till och allt vad nu är.
51:07
Men du ersätter människan
51:07
med maskin och kan vi då få
51:11
in ännu mer såna grejer där? Det är en vinst du får från mig.
51:15
Som jag sagt, det enda du egentligen gör är att köpa saker.
51:17
Kör ändå. Självkörande bilar
51:18
ska köra hem du till. Du har en AI som automatiskt
51:20
tänker ut För att både
51:22
äta behöver du på att
51:22
följer tid, men du själv
51:26
behöver inte göra nånting. Och sen går jag och
51:28
ska mig ett jobb också.
51:31
Kan du sammanställa excel listor
51:31
och då behöver du bara vet att
51:34
jag har data här så det är klart
51:34
försvann 2 timmar den dagen.
51:38
Sen så ska du representera det
51:38
där man uttalar datan om det.
51:42
En paus på en timme och
51:42
helt plötsligt ser du massor
51:46
av task som försvinner. Men tänker du på
51:47
servicepersonal?
51:50
Och då har du en AI som
51:50
tänker ut och så vet man
51:53
vilka som är i det butiken
51:53
och så säger den bakre Du
51:57
kommer upp och säger nu här. Du har din digitala profil
51:58
om vad du tycker och smart
52:01
skickar det till restaurangen,
52:01
serverar den, går i affären,
52:04
kalkylerar ut vad de har för
52:04
gränser och skickar ut en
52:06
rabatter som serverar maten till
52:06
och så ringer jag bara och så
52:09
dras pengarna automatiskt från
52:09
ditt konto och helt plötsligt
52:12
så har du inga anställda. En robot också som självklart
52:14
lagar mat men du fattar
52:18
vilken? vilken? typ av tilltro har du
52:19
till mänskligheten för
52:22
noll.
52:22
att upprepa det?
52:26
Har du någonsin sett människor
52:26
som lägger sig ner på att
52:29
när jag ligger apatisk? Ingenting.
52:31
Okej, du kanske behövde snickare
52:31
och börja hålla på att snickra
52:36
skåp eller än sitter och jobbar natt och jag om det finns
52:39
någonting.
52:42
Att vi.
52:43
Nej, men det finns
52:43
någonting som man ändå får
52:48
tillskriva mänskligheten,
52:48
så är det ju kreativitet.
52:52
Och jag tror att det är
52:52
så att ja, det är så att
52:55
vi kommer använda AI i
52:55
väldigt många olika saker.
52:58
Men vi kommer ju hitta
52:58
på nya saker att göra.
53:01
Ingen vill väl ligga raklång
53:01
och stirra upp i taket?
53:04
Och om man Nu
53:05
Nu laddar du. Nu laddar du. Nu
53:08
laddar. Vad ska du?
53:11
Kreativiteten är väl
53:11
inte det som har av kreativitet
53:14
att mustig copywriter Är.
53:17
duktig på Spotify. Det är
53:20
Att.
53:20
musik som skrivs
53:20
och de bilder som målas av
53:23
och det är det som är kreativa yrken på det sättet.
53:26
det är det som an ta bort
53:26
kreativiteten av
53:29
skriven text och hela. Det är ju det.
53:32
som av en just nu för
53:32
många tar bort att du
53:34
ska. De som gör åt dig
53:37
vore ju bara kött i butik
53:37
eller vad det nu heter.
53:40
Listan är baserad på tidigare aktivitet,
53:41
men resultatet är att du
53:45
bara matar in nånting och
53:47
någonstans tror det jättemånga som kan
53:47
tycka det är jättejätte ligga
53:51
18 timmar per dygn och kolla på
53:53
Netflix eller spela TV spel eller koppla Upp
53:56
sig i en VR miljö och
53:56
leva där, det tvivlar
53:58
jag inte på för fem öre.
54:00
Fast vi kan inte blanda in
54:02
dömer man andra.
54:03
mig. Men du kan inte. Det är att leva i en VR värld.
54:06
Det här är en helt
54:06
annat samtalsämne,
54:10
Vi
54:10
vilket vi också kan. Ja, absolut, men
54:12
också du och jag.
54:16
Men du har ju en poäng. Jag kommer ihåg att jag
54:18
försökte argumentera för det
54:20
här någonstans när ni kommer
54:20
ihåg denna Alfa gång och gjorde
54:24
det här magiska dag
54:24
27 eller vad det var.
54:27
Däremot, och han eller dem
54:27
såg jag dem med häpnad.
54:32
Och så såg man även titta
54:32
och initiativ för att hans
54:34
blick fick ett smatter och
54:34
vi gjorde någonting som ingen
54:38
andre hade förväntat sig. Ja. Tittar vi på.
54:41
Jag gjorde en annan intervju
54:41
med Studio Ett, ett indiskt
54:43
städbolag som började göra
54:43
kläder med hjälp av AI, där
54:46
en industridesigner eller din
54:46
kläddesigner inte kom in först
54:50
i slutet av processen och någon
54:50
form av gay nätverk eller ens
54:53
trådade internetföretag och
54:53
trender kom upp med förslag
54:57
på kläder som var lämnade
54:57
jag som mätte hur bra det
55:01
här skulle funka och utmanade
55:01
här om designen och mot hur
55:05
bra det skulle funka på deras
55:05
hemsida och sen kom in i
55:09
kläder från den in i slutet
55:09
och tittade på resultatet och
55:11
sa det här är ring och skicka
55:11
till produktion, det är min.
55:15
Men jag kan inte se att. En kläddesigner skulle nöja
55:17
sig det, men däremot och kanske
55:20
samarbeta med den här typen av verktyg och annonsera och
55:21
liksom utveckla sitt yrke.
55:24
Ja, det tror jag. Jättemånga skulle inte säga ja.
55:28
Det kommer alltid finnas folk
55:28
som vill ligga på soffan och
55:30
titta på Netflix, men det
55:30
kommer finnas ganska många som
55:32
inte nöjer sig med det också.
55:34
Vi har ju jobbat
55:34
inför såna här teknikskiften
55:36
tidigare med robotar
55:36
som gått in i industrin.
55:39
Vi har gått genom hela industriella revolutionen. De har ju.
55:42
Ja, det har försvunnit,
55:42
försvunnit jobb.
55:45
Men. Människor ändå hittat
55:45
på andra saker att göra
55:48
och då skapas nya jobb.
55:51
Så varför skulle vi helt plötsligt
55:54
vänja
55:54
Vad är.
55:55
vid att ligga på soffan?
55:56
Varför inte? Men det kanske inte behöver ligga på soffan.
56:00
Men du behöver kanske inte
56:00
aktivt jobba för liksom
56:04
bara för att jobbande skull. Men så du bryr sig om varför
56:05
du vill tillföra någonting.
56:08
Och var det är någonting. Något annat. Men någonstans,
56:11
nu ska jag var. Jo,
56:13
men då kommer det finnas för den
56:15
fördummande generationen. Om vi nu ska gå på den
56:18
tesen.
56:20
Och.
56:20
Exakt. Eller så.
56:23
test
56:27
Nu fördömer nationen också robotar som undersöker
56:30
inte bara begär robotarmen,
56:33
de bygger grejer. Industrin får bättre robotar
56:35
som gör de tillbehör de bygger,
56:38
robotar som gör annat än att
56:38
bara tänka och göra saker.
56:43
Och här också så har
56:43
vi självkörande bilar.
56:45
Vi gör oss självförsörjande,
56:45
lättare elnät för att
56:48
självförsörjande rätter
56:48
reparatörer självklart ens kan
56:52
få av något så kan apparater repareras.
56:54
Helt plötsligt så har vi. Saker som tänker och
56:56
fysiskt gör saker.
56:59
Under passet nånstans kommer
56:59
vi inte ha ett behov av.
57:02
Har massa låg betalande jobb där
57:02
majoriteten av mänskligheten är.
57:08
Däremot kommer vi ha en del och
57:08
det kommer behöva ha folk
57:11
som kan en som kanske kan
57:11
specialkunskap om att reparera.
57:14
Du kan ha specialkunskaper
57:14
att lära och eller
57:18
kreativa skapa saker. Självklart.
57:21
Det kommer vara vissa som
57:21
missar sådana jobb, men i
57:24
det stora hela så känns det
57:24
som att en stor massa utav
57:29
befolkningen brukar Sverige. Inte det bästa exemplet
57:30
när de kollar på hela jorden någonstans.
57:33
Kommer inte ha sysselsättning.
57:36
Nog för att vi kommer ha
57:37
saker som travare, sen kommer det skapas
57:39
nya möjligheter men alla kommer inte kunna vara.
57:43
De som forskar och kommer
57:43
på de smarta idéerna.
57:45
För det är de inte idag. För folk är inte
57:46
till tänderna smarta.
57:49
Men varför skulle
57:52
Så jävla dystert. Så jävla
57:55
jag köpa Det Men ju mer jag vill
57:56
bemöta det här.
57:59
Jag sett ett jätteroligt
57:59
Youtube klipp från jättelängesen
58:04
där en snubbe som lägger
58:04
sig i en maskin med huvudet
58:08
och försiktigt huvud
58:08
håret tvättat av en robot
58:12
måste vara en fruktansvärd
58:12
upplevelse, för det är få som
58:17
skrapar honom över huvudet. Löddrar överallt.
58:20
Det kommer liksom vatten från sidan alltså. Så här är det ju.
58:24
Det kommer att finnas yrken
58:24
som jag tror det är åt för
58:27
länge innan vi ens vill
58:27
att de ska digitaliseras.
58:31
Allt från från yogalärare, massa
58:31
en massa yrken där vi faktiskt
58:37
vill ha en mänsklig kontakt.
58:40
Sen finns det jättemånga
58:40
yrken där det inte finns en
58:42
ekonomisk fördel att använda
58:42
sig av robotar eller AI.
58:47
Där är det också lite sorgligt
58:47
om man får fundera på vilken
58:49
utveckling man vill ha. En till exempel ett
58:51
städat hotellrum. Har ni sett en robot?
58:54
Någon som försöker bädda en säng? På sin höjd ser det ut
58:57
kanske som när en tonåring
59:01
försöker bädda sin säng
59:01
med liksom ett täcke som
59:04
ligger slängd på sidan. Att få ett heat att skapa en
59:06
robot som faktiskt kan göra
59:11
alla de sakerna vi kan i ett
59:11
gästrum är väldigt svårt.
59:17
Det finns liksom områden där
59:17
vi varken vill ha robotar
59:22
och AI och det finns områden
59:22
där bi där de inte kan verka.
59:26
Sen då? Vi funderar lite grann på
59:27
vad blir det för typ av jobb?
59:30
att få en massage av en människa? Kanske blir jättemycket eller
59:32
kanske bli jätte billigt
59:36
för alla blev massörer.
59:38
I.
59:39
Det är svårt att
59:39
spekulera kring men här är
59:42
också igen som behöver anta att
59:42
behöver man ta diskussionen?
59:47
Vad är det för utveckling vi vill ha? Men jag skräms inte alls av.
59:51
Av en ökad automatisering vid
59:51
användning av digitala verktyg.
59:57
Skönt. Tack för det du!
59:59
Det är jag suttit och
59:59
argumenterat med och sett
1:00:03
där och han är så jäkla negativ positivitet.
1:00:10
Jag tänker att. Har du? Du vet. Tesla försökte hela automatisera
1:00:12
sin produktion och fick rulla
1:00:16
tillbaka till 70 % för att.
1:00:21
Just det, robotar är inte så bra
1:00:21
på att lägga en kabel mattor och
1:00:24
koppla i kontakten när kontakten
1:00:24
inte råkar ligga på det stället
1:00:27
där den förväntar sig när du
1:00:27
har slängt in en hel kabel.
1:00:30
Ja,
1:00:31
en produktion.
1:00:32
jag läste någonstans
1:00:32
några ämnen om det också.
1:00:36
Trevlig bok om AI och
1:00:36
utvecklingen som varit.
1:00:38
Med slutet av boken
1:00:38
så var det road.
1:00:40
Inte en som är rädd
1:00:40
för AI revolutionen
1:00:45
och då var det så här. Du kan börja med att
1:00:46
måla alla dina handtag
1:00:48
i samma färg som dörren. Gärna svart för då kommer ett
1:00:50
problem att hitta dörrhandtaget.
1:00:55
Sen kan du se till att bo
1:00:55
i ett hus med trappa för
1:00:57
det är väldigt svårt för
1:00:57
robotar att skjuta trappor.
1:01:01
Sedan kan du bara välja att
1:01:01
sätta upp olika bilder på
1:01:04
dörrar och fönster och allting
1:01:04
runt om i ditt hus som gör
1:01:07
att det omöjligt att navigera
1:01:10
vad som är dörrar och fönster. Och sedan i
1:01:12
i.
1:01:12
sätta dig på bordet
1:01:12
för att se ut som bäst
1:01:15
och anti som är på rymmen.
1:01:19
finns vägar för dig också. Känna dig trygg.
1:01:24
Gillar hur det här ändrades till
1:01:27
runt.
1:01:28
det lugnt det
1:01:30
förlåt.
1:01:31
Nej, har inte
1:01:31
varit helt snälla med
1:01:34
våra fåglar heller
1:01:34
När.
1:01:35
det finns ingenting
1:01:35
och be om ursäkt för.
1:01:39
Men i sak är jag inte orolig för
1:01:40
mig själv eller så.
1:01:43
Men jag ser ändå att det skulle
1:01:43
kunna finnas problem och inte
1:01:48
bara att Vad köra och hoppas
1:01:48
på det bästa sker utan det
1:01:51
kanske är så att samhället
1:01:51
och vi själva tänker lite
1:01:55
så att verkligheten i dag
1:01:55
kommer inte påverka den om några
1:01:58
år och vi bara kollar hur fort kött till
1:02:01
bete på två månader blev ett faktum för nästan hela världen.
1:02:04
Och det är en halvt dum köttbit.
1:02:08
Men den satte hela utbildningssystemet
1:02:09
på snedden helt plötsligt
1:02:12
och alla möjliga yrken
1:02:12
fixar och det funkar ju.
1:02:16
Och då tänker vi generation
1:02:16
som är och blir hundra gånger
1:02:20
smartare och mer tränad på
1:02:20
data som är under utveckling.
1:02:24
Och det är bara att bottna
1:02:24
med allt annat som sker
1:02:26
och jobbar smartare. Det kommer gå fort
1:02:27
tror jag Och det. måste du vara med på att
1:02:29
kunna ta vändningarna.
1:02:31
Det är lite det. jag säger och att inte bara
1:02:32
stå där och säga men med
1:02:34
det jag gör i dag kommer jag
1:02:34
kunna göra exakt likadant
1:02:36
om fem, tio, 15, 25 år.
1:02:39
Det tror jag. Du har helt rätt.
1:02:40
göra.
1:02:41
Jag tycker att du
1:02:41
sätter fingret på kanske det
1:02:43
viktigaste över huvud taget, det
1:02:43
är att vi gör det här som en så
1:02:48
medveten utveckling som möjligt. Att vi tänker efter före.
1:02:51
Att vi ser att det kommer att
1:02:51
komma en hel del fallgropar.
1:02:53
Och det kan gå fort. Det kan gå fort ett tag och sen
1:02:54
så blir det liksom en backlash
1:02:57
och så händer ingenting och
1:02:57
sen så kommer det gå fort igen.
1:03:00
det är klart. Men vi behöver tänka efter före.
1:03:02
Vi behöver regleringar. Vi behöver fundera på
1:03:04
vad är ansvarstagande?
1:03:06
Utvecklande? Vi behöver fundera
1:03:07
kring AI och etik. Och vad är giltigt?
1:03:10
Ska inte vara liksom ett eget
1:03:10
separat område som ligger
1:03:12
där borta någonstans, som
1:03:12
bara håller på med utan utan
1:03:14
det måste verkligen ingå i
1:03:14
all form av AI utveckling.
1:03:18
Robot utveckling
1:03:19
Då kommer en samhällsfråga då. Tror
1:03:21
du? Eller tycker du? Eller tänker?
1:03:24
Eller vet du det? Det får du svara på direkt
1:03:25
från vilket håll du vill
1:03:28
att stater och du tänker.
1:03:30
Speciellt Sverige har en tillräckligt bra
1:03:31
grepp om vad A är och att
1:03:35
dom tänker på regleringar och
1:03:35
hur man hur samhället kan bli
1:03:38
påverkat av det som händer. Eller är man lite som Sverige
1:03:40
är en ganska långsam verkstad
1:03:44
och kommer på allt för sent
1:03:44
och då kommer få leva av
1:03:46
konsekvenserna av att det fort. Det gäller inte
1:03:48
bara i Sverige, men
1:03:50
När man tänker Hur
1:03:50
ledande var de där sågarna?
1:03:54
Ja, verkligen.
1:03:57
Jag skulle säga så här. Vi behöver ju vara bra
1:03:58
både tänka efter före
1:04:02
men också vara aktiva. Men vi måste både reagera
1:04:04
på det som händer men
1:04:06
också tänka efter. Finns det tillräckligt bra
1:04:07
förståelse för vad det här
1:04:10
är och vad det kan innebära? Jag går tillbaks mitt
1:04:11
ursprungs argument i början?
1:04:14
Nej. Vi vet inte. Människor vet inte.
1:04:17
Man förstår inte vad data är. Vi tre vet ju tydligen
1:04:18
uppenbarligen inte igen.
1:04:21
Avges
1:04:22
Så om vi sitter här
1:04:22
och inte riktigt kan sätta
1:04:26
fingret på det där man han
1:04:26
tänkte, då är gemene man
1:04:30
där ute och ler när man. I dag får vi starta där i maj
1:04:32
för att vi vill liksom på nåt
1:04:35
vis demokratisera AI samtalet.
1:04:37
Vi har ju gjort seminarier, vi
1:04:37
har gjort böcker, vi har gjort
1:04:40
studier tillsammans med Novus. Just nu planerar vi på att
1:04:42
göra en till, men något.
1:04:44
Så ta en ny mätning på samma frågor. För att sprida
1:04:46
den här kunskapen. Men sen skulle jag
1:04:48
säga ja, absolut.
1:04:50
De som sitter och jobbar med
1:04:50
mer än de regerings frågor
1:04:54
liknande eller ansvar så vår
1:04:54
politiker de behöver veta.
1:04:57
Men sen behöver också
1:04:57
vanliga människor veta.
1:05:00
Exempel i en organisation. Så kan man ju säga Jo,
1:05:02
men det är de som jobbar
1:05:04
med utvecklingen, är de
1:05:04
som inte kommenterar och
1:05:07
utvecklingen som är hennes
1:05:07
kunder som ska behöva förstå.
1:05:09
Det handlar om att de HR
1:05:09
avdelningen köper in ett
1:05:12
AI system som ska hantera
1:05:12
alla medarbetarnas data.
1:05:17
Då behöver de förstå vad är det
1:05:17
för data och hur är den känslig?
1:05:21
Hur kan det här systemet
1:05:21
använda den datan?
1:05:23
Vad finns det för risker med det? Hur vill ni att andra ska
1:05:25
utvecklas På 05:50 år bör
1:05:28
man också fundera kring
1:05:28
den allmänna kunskapen.
1:05:33
Behöver vi höja och det ska
1:05:33
inte ske redan i grundskolan.
1:05:38
Men något som jag
1:05:38
funderat på, det är väl
1:05:41
lite personlig integritet
1:05:41
när det kommer till
1:05:45
AIS och all denna data.
1:05:47
För det är ju data vi måste
1:05:47
lära oss hur vi hanterar data.
1:05:50
Men hur? Hur ska man liksom idag då?
1:05:52
Fundera eller tänka. För all data blir ju en stor
1:05:54
boll av träningsdata i många
1:05:59
aspekter och jag tror inte
1:05:59
Open är att helt öppna med
1:06:04
vad det är för träningsdata
1:06:04
de har använt till exempel och
1:06:07
vilken data som innehåller det. Hur?
1:06:10
Hur ska man tänka som privatperson? Har du några tips,
1:06:12
idéer eller tankar?
1:06:15
Hur
1:06:15
inte
1:06:15
man i
1:06:15
integritets mässigt?
1:06:18
När det var den
1:06:18
svåraste frågan hittills tycker
1:06:21
jag. Ja. Nej.
1:06:23
Men jag tycker liksom
1:06:23
förberedelse, frågor och
1:06:26
integritetsfrågor är kanske
1:06:26
det var egentligen det som
1:06:28
fick mig att börja hålla på
1:06:28
Maria och huvud taget Hur vi
1:06:32
ska tänka kring integritet. Jag tror igen, det är
1:06:35
en kombination av vad vi
1:06:38
tillåter organisationer,
1:06:38
företag, privatpersoner
1:06:41
och samhällen att göra. Och det andra är ju kunskap jag.
1:06:44
Kan liksom inte ge något svar på det Så. Har ju ditt svar på den.
1:06:49
Jag ser väl en risk.
1:06:53
Rent generellt. Jag är till exempel
1:06:55
inte en person som är.
1:06:59
Super privat av mig. Jag är nog.
1:07:02
Jag sprider nog min data
1:07:02
ganska vitt och brett.
1:07:05
Däremot så är jag ganska
1:07:05
mån om att skydda mina
1:07:08
konton väldigt väl. Till exempel en sådan
1:07:09
säkerhetsaspekt med min data.
1:07:13
Jag tror man kan få ta reda
1:07:13
på ganska mycket om mig genom
1:07:16
att bara göra en ganska så
1:07:16
lätt googling och hur jag
1:07:19
ska rulla tillbaka det. Jag tror att det är svårt
1:07:21
när jag redan har satt
1:07:24
mig i den situationen. Jag sitter till exempel.
1:07:26
Och att jag säkert är en
1:07:26
del i nån typ av träning.
1:07:30
Starta bas. Säkerligen många gånger om
1:07:31
och men det är också frågan
1:07:36
vad gör det om jag är en
1:07:36
i mängden till exempel?
1:07:39
Så länge man inte kan plocka
1:07:39
ut specifikt min data.
1:07:43
Gör det nånting då att
1:07:43
min data är en del i den
1:07:46
stora mängden till exempel?
1:07:48
Naw, du gör väl rätt.
1:07:50
Tänker så här traditionell
1:07:50
mycket research har varit att
1:07:53
man delar in konsumenter i
1:07:53
olika grupper utifrån ålder,
1:07:57
köpbeteenden eller något annat. Det Jag har ett visst
1:07:59
antal backat, backats. Du placerar människor med
1:08:01
hjälp av den dataanalys
1:08:03
som du kan göra idag. Alltså kan du göra bakelserna
1:08:04
mindre och mindre och
1:08:06
mindre att tillgå och du
1:08:06
kan vara mer med granuler.
1:08:10
Och om man. Då behöver du kanske
1:08:11
inte veta exakt
1:08:13
Nu.
1:08:14
din data. Men eftersom jag kan placera
1:08:15
dig i en pytteliten backat.
1:08:19
Så kan jag ändå veta ganska mycket om dig, även om det inte
1:08:21
råkar vara just din data.
1:08:25
Sött.
1:08:25
väldigt sant.
1:08:27
Jag tror att jag
1:08:27
tror att man ska vara chaufför
1:08:31
för tio år och satt ner
1:08:31
argument med d människa på.
1:08:35
Jag har rent mjöl i påsen. Behövde inte vara
1:08:37
orolig för någonting. Men
1:08:39
de första.
1:08:40
hittar på
1:08:41
Ja jo, jag tänker
1:08:41
så här att när vi ändå pratar
1:08:45
om tjat, tjat och det var
1:08:45
nån som nu läste det om det.
1:08:49
Vaknade bort någonting alls idag
1:08:49
också för 05:06 år sedan som en
1:08:53
man som hade två utvecklare och
1:08:53
den ena utvecklaren hade gått
1:08:57
bort när man goda vänner och det
1:08:57
andra första då det eller tagit
1:09:02
all den här datan från deras
1:09:02
tidigare chattar och allting
1:09:05
annat och utvecklat en chatbot
1:09:05
så han kunde fortsätta sitta
1:09:09
och chatta med sin döda vän.
1:09:10
Ja, Och
1:09:12
Och det är sant,
1:09:12
men lite läskigt med också.
1:09:14
Men det kanske var bättre förr.
1:09:18
För den här personen. Om man då tänker på att använda
1:09:19
datorn du lämnat efter dig, på
1:09:23
alla dina konton och liknande
1:09:23
och allt det och alla andra
1:09:25
saker du har gjort och du
1:09:25
har shoppat och du har liksom
1:09:28
resor, vilka du har hängt med
1:09:28
och vilka du haft proximity
1:09:31
med ens var i närheten av all
1:09:31
denna data som finns om dig
1:09:34
som du inte medveten om att
1:09:34
jag släppt ifrån dig Elinor.
1:09:37
Den tillfaller ju inte dina
1:09:37
barn eller dina dina släktingar
1:09:41
när du dör utan då äger den. Då går ju den till
1:09:44
till företagen.
1:09:46
Om det här ändras så kan ju någon rätta mig dock. Men
1:09:49
Det finns inga digitala testamente. Det är testamentera min
1:09:50
data till mina barn.
1:09:54
Men faktum är att min dator
1:09:54
berättar väldigt mycket om
1:09:57
mina barn också, vad jag
1:09:57
har gjort och om allt som
1:10:01
kan förutspå mina framtida
1:10:01
sjukdomar och allting annat.
1:10:05
Säger kanske någonting om vad som är verkligheten för mina barn,
1:10:07
så min data är ju
1:10:07
egentligen deras.
1:10:10
Och sen om man spinner vidare
1:10:10
på det här ännu mer, om man
1:10:12
hatar mig, om jag då dör. Och all den här datan finns.
1:10:15
Om man gör en smart chatbot med mig. Dick kan få veta av mig
1:10:18
I.
1:10:19
som jag kanske
1:10:19
fick läsa en gång till.
1:10:22
Tre poäng till. Att den här typen av
1:10:24
information mina barn kan
1:10:27
fråga har fått en back mamma. Vem tyckte du egentligen
1:10:29
mest om av oss två?
1:10:32
Hos
1:10:33
Alltså, det är som
1:10:33
Det finns jätte jätte många
1:10:37
stora viktiga saker som
1:10:37
jag tycker vi borde ta upp.
1:10:40
Ju bättre vi blir på att
1:10:40
analysera data, bygga in
1:10:42
dem i system desto viktigare
1:10:42
blir det att vi också
1:10:44
förstår data och integritet
1:10:47
I.
1:10:47
och vad det är för
1:10:47
data bland annat ifrån oss.
1:10:49
Och vad får man faktiskt göra med den? Vad är svar nu och
1:10:51
på din fråga det?
1:10:53
Ja,
1:10:55
I.
1:10:56
jag tycker det. Och om inte om inget annat.
1:10:58
Väldigt. En tankeställare. Ett bättre.
1:11:03
Och det är så jag tänker.
1:11:06
Om man ska ta det här med att lämna ifrån sig data för att
1:11:09
efterlämna i världen är ju inget nytt.
1:11:11
Bara att du har målat en tavla
1:11:12
eller att du har skrivit
1:11:15
någonting i ett brev eller? Så Mycket
1:11:17
av vår historia bygger folkkäre Petersons data på ett
1:11:19
annat sätt, vare sig det är
1:11:22
böcker eller brev och dagböcker. Och man lär sig mycket
1:11:23
om personer blir det som
1:11:26
skiljer. Nu tror jag att det är inte så mer.
1:11:28
Man tänker inte på att man
1:11:28
lämnar ifrån sig data och
1:11:32
att den sparas på samma sätt. Du vinner för att när du
1:11:34
skrev en dagbok eller skrev
1:11:34
ett brev under tänkte om
1:11:38
nyskrivet och det här. kan sparas. Svart på vitt.
1:11:41
Men lika mycket är ju
1:11:41
en chatt mellan dig och
1:11:44
din kompis som drev tidigare.
1:11:47
Eller den här bloggen vs
1:11:47
Instagram eller Facebook.
1:11:50
För det är ju internets bloggar från start. Det är lika mycket en
1:11:53
dagbok som något annat. Precis så mycket
1:11:56
data som du faktiskt. Eller fotoalbum. Jag tror också det är också
1:11:59
Instagram eller vad det nu blir. det digitaliserade.
1:12:02
Men att inte fokusera på det sättet. Och skillnaden
1:12:04
är att datorn ligger inte i en låda
1:12:07
eller i din bokhylla,
1:12:07
hemma eller i.
1:12:09
Här måste du skicka det tydligt. Den ligger i
1:12:11
företagscenter och I
1:12:14
viss mån så är den kanske
1:12:15
öronmärkt, men det är.
1:12:18
Det här är Rebeckas data.
1:12:21
Det här är Andreas Data. Men ska du gå in på
1:12:23
och bekräfta att.
1:12:26
Och kolla på bilder och
1:12:26
så att mitt fotande på
1:12:28
min telefon hittar den ju
1:12:28
rätt fort att här är min
1:12:32
sambo. Här är Andreas. Här är jag på olika bilder
1:12:36
och delar den datan. Då så kan jag helt
1:12:38
plötsligt men jag är inte
1:12:38
lägger vi ut videos på själva
1:12:42
budskapet digitalt? Rätt mycket
1:12:45
data om oss själva på detta sättet. Men
1:12:49
Gör man sällskap
1:12:49
många tänker
1:12:50
när jag ska ut
1:12:51
innan.
1:12:52
så ska du tidigt
1:12:52
och då är det ändå så här.
1:12:55
Nu kan jag konkret se att
1:12:55
jag har tagit en kort.
1:12:58
Då var ett kort på Andreas
1:12:58
och då finns det där.
1:13:00
Men sen är det du inte tänker på
1:13:00
en annan dator du lämnar ifrån
1:13:04
dig och det till exempel att. Vilka typer av finns
1:13:06
det du använder? Det var någon studie företag
1:13:08
som visade att att man kan
1:13:11
se människor som har en
1:13:11
tendens eller de är redan i
1:13:14
depression baserat på vilka
1:13:14
filter man använder när man
1:13:18
publicerar bilder för hälsa. Och det tänker du
1:13:20
inte att det är data för. Det är en manipulering
1:13:22
av ett foto du gör,
1:13:25
men det är också data. Men data är data på var
1:13:28
jag är, hur jag rör mig,
1:13:32
hur snabb jag är, hur
1:13:32
många tangenttryckningar,
1:13:35
hur vad jag brukar stava
1:13:35
fel på, för vilka ord.
1:13:38
Allt är data.
1:13:39
Men då är det
1:13:39
Men vi måste. Vi måste prata mer om data.
1:13:43
Och det bästa då hade ju
1:13:45
varit att man kan.
1:13:47
Man kan på viss mån
1:13:47
begära tillbaka sin data
1:13:50
men inte allt detta. Det tror jag är väldigt
1:13:51
svårt för att det inte eller all data är
1:13:53
öronmärkt med att detta är du.
1:13:56
Man kan säga att detta är
1:13:56
en person, men trots bara
1:13:59
all export av re omöjligt
1:13:59
så har all data sparat och
1:14:02
öronmärker inte person. Då blir det otroliga
1:14:03
datamängder.
1:14:06
Men. Att ha fått baka den för alla företag, alla ark
1:14:07
hemsidor de varit inne på.
1:14:10
Allas cookies
1:14:10
måste ju att ha den
1:14:12
datan sparad också av allt den är. Det är ju lätt i sak när det går
1:14:14
väl, men det är en omöjlighet.
1:14:20
Men det som jag satt och
1:14:20
hoppade för innan, det
1:14:23
är en grej som jag inte ens tänkt på innan. Borde man ha regleringar
1:14:26
på att barns data.
1:14:30
inte får sparas på nätet
1:14:30
eller sparas hos företag.
1:14:33
Barn har väl i uppdrag 18 år
1:14:34
att egentligen ha.
1:14:37
Du, Du, är barn,
1:14:39
du är inte vuxen. Du vet inte vad du gör,
1:14:40
inte gör och då är inte de
1:14:43
ansvar den som vuxen har. Ska du då från väldigt,
1:14:48
väldigt ung ålder börjar du nu faktiskt
1:14:49
spåras som en person i både
1:14:53
familje konton och olika som
1:14:53
användare och där ska den
1:14:56
datan sparas om dig
1:14:56
för att du är om allt
1:14:59
från två år och uppåt. Också ändå
1:15:02
byggas på efteråt och kopplas
1:15:02
upp med ditt vuxna jag.
1:15:05
Eller borde man ha? Men det är svårt också att
1:15:06
säga att det är det härliga
1:15:09
och oheliga myntet att du
1:15:09
kan delvis vara en option.
1:15:13
Men. Ska man då bara kolla
1:15:15
på mail? Skaffa många som ska
1:15:16
e-mail när man var
1:15:19
elva år och haft
1:15:19
samma möjlighet.
1:15:22
Det är jättemycket som är knutet
1:15:22
till den mejlen och det har man
1:15:25
Då.
1:15:26
missat. När du inte svarar
1:15:26
är det okej, är inte
1:15:29
tänkt den tanken, men det slog mig när vi pratade detta. Och vad det innebär.
1:15:33
du har
1:15:33
en poäng, absolut.
1:15:35
Och det visar.
1:15:38
14
1:15:38
Så det var väl liksom strax
1:15:42
där efter som instagram kom
1:15:42
och då var det ju väldigt
1:15:46
många som liksom ville börja. La upp jättemycket bilder
1:15:47
på sina barn och jag la inte
1:15:52
upp någonting på facebook. Var ju där också innan och
1:15:53
gilla aldrig upp några bilder
1:15:57
på barnen för det tänkte jag
1:15:57
så för jag kan inte skapa
1:16:00
deras digitala profiler eller
1:16:00
identiteter och persona för.
1:16:04
Så jag tycker det var en
1:16:04
rolig bild när de kladdade
1:16:06
med blåbär i hela ansiktet liksom. För det kanske inte
1:16:08
vad de vill ha. Men men, det var ju
1:16:10
de här jättestora det.
1:16:12
Jag tror att den pågår lite
1:16:12
grann fortfarande också.
1:16:14
Vad har man för ansvar som
1:16:14
förälder att liksom dela
1:16:17
information om sina barn?
1:16:19
I.
1:16:19
Men jag tänker också
1:16:19
sedan när man får in ett
1:16:21
verktyg i skolan som action
1:16:21
box eller liknande liksom.
1:16:25
Där får de ju en sådan typ av information. Och sen vad barnen lär
1:16:27
sig i skolan, läs och
1:16:30
skrivsvårigheter, hur
1:16:30
duktiga de är att.
1:16:32
Eller att det finns en
1:16:32
jätte speciell typ av data.
1:16:36
En hemlighet upp för det finns ett företag som jag tycker är lite intressant.
1:16:40
Sen hon sina egna grejer den etiska diskussionen
1:16:42
när är okej och inte okej.
1:16:45
Det företag som som finns i
1:16:45
USA företag eller skolor och
1:16:50
kan se till att de här apparna
1:16:50
finns på skolans verktyg.
1:16:54
Och så har man barnen är
1:16:54
när de loggar in dessa fram
1:16:58
olika digitala verktyg och
1:16:58
de här verktygen kan läsa av
1:17:04
datan för att identifiera. När pågår det då?
1:17:06
Risk för våldsamheter
1:17:06
eller också depression?
1:17:10
Och ett success q som de
1:17:10
själva framhåller där.
1:17:14
Jag fick de här exemplet
1:17:14
från en jättebra podcast
1:17:18
som hette Från ett maj. En majoritet av det här var
1:17:19
deras podcast och det var
1:17:23
ganska spännande exempel. Där dom.
1:17:27
Skolan får det klart
1:17:27
att ett barn är på väg
1:17:31
att begå självmord.
1:17:32
Och.
1:17:33
Och då är det så att det sitter m ett barn i sitt sovrum.
1:17:36
Och Alex skrev lite om
1:17:36
Notes digitala verktyg
1:17:40
och det har triggat det
1:17:40
här å inom en kort stund.
1:17:43
15
1:17:43
minuters charm med skolan då.
1:17:47
informerat polisen. Polisen har åkt till ett
1:17:47
i den här familjen en
1:17:51
och ringer på familjen. Svara eller öppnar dörren.
1:17:54
Nej, nej nej. Men vårat barn i uppe på sitt
1:17:54
sovrum har precis ätit middag.
1:17:58
Så går de upp till sovrummet
1:17:58
och sen så är det inget
1:18:01
barn där och då hinner
1:18:01
man liksom identifiera.
1:18:03
Vad är de vanligaste
1:18:03
ställena i området där barn
1:18:07
väljer att begå självmord? Och så kom det.
1:18:10
Och mycket riktigt så hittar
1:18:10
man barnet och det som är.
1:18:13
Gud vilken tur att de kunde
1:18:15
förhindra det här. Men samtidigt, den andra
1:18:17
sidan av dig funderar ju.
1:18:20
Om du skriver ett sådant brev
1:18:20
ska vem som helst läsa det.
1:18:24
Är
1:18:26
Vad Var. liksom jag?
1:18:29
Vov Vov vov och vov!
1:18:32
Vov, vov! Vov går gränsen!
1:18:34
Personlig trygghet hos barn. Och för
1:18:38
alla andra. också. För när Jag mister min bana så ska ju ett jättebra.
1:18:43
Barnet fick hjälp han behövde.
1:18:46
Men. Också väldigt läbbigt att
1:18:48
någon har den insynen.
1:18:51
Och nämner, det som du pratade
1:18:53
om i förra avsnittet med
1:18:53
den här recensionen av
1:18:56
Nakenbilder i iMessage. Den är
1:18:59
ju mycket mildare och allt görs lokalt och
1:19:02
det är ett program och jag
1:19:02
tycker den är jättebra.
1:19:05
Men det finns ju olika grader av vad som
1:19:07
drar, inte bara väldigt
1:19:09
mycket utveckling som
1:19:09
har och ska bli en bra
1:19:11
bit i utvecklingen. Varje år har jag väldigt goda intentioner.
1:19:15
och jag vet inte vad. Jag har
1:19:17
visst goda intentioner i sak, men någonstans.
1:19:20
Det finns också en baksida av att mycket gott.
1:19:23
skapas. Det kan bli för gott Och
1:19:27
då blir det problem snarare
1:19:29
än att bli bara bli bra. För att smart och
1:19:32
smart data eller
1:19:32
smarta system maximerar
1:19:35
det också. De är ju smarta och kan mycket. Och varför kan mycket
1:19:37
och vad kan det få? Konsekvenser
1:19:39
det. Tycker den är svår.
1:19:42
för att Man vill både äta och spara
1:19:45
kakan samtidigt och det är svårt
1:19:47
nånstans att göra det.
1:19:48
Men men, det
1:19:48
är ju tyvärr tudelat.
1:19:52
Men kan man säga att det
1:19:55
gäller VM? Men om vi inte får de här
1:19:56
samtalen, om vi inte diskuterar
1:19:59
de här sakerna, då kommer
1:19:59
vi, liksom organisationer,
1:20:02
personer, människor att ta
1:20:02
sina egna beslut utifrån sina
1:20:05
värderingar och sina idéer
1:20:05
vad de tycker är rimligt.
1:20:08
Och vem vill egentligen kanske
1:20:08
en sämre utveckling än att vi
1:20:12
faktiskt försöker lösa de här
1:20:12
bitarna och diskutera igenom vad
1:20:15
tycker vi är rimligt och inte? Jag tycker det är
1:20:16
jättebra fråga du lyfter.
1:20:18
Du bör fundera på vad ska
1:20:18
vi göra med barns data i det
1:20:22
här och är det inte okay? Vi måste prata om det.
1:20:27
Så nej, det utgör inte nålar.
1:20:29
Och det är väl lite här jag
1:20:29
är inne på att som i
1:20:32
dysterhet att liksom jag tror att man måste ha rätt
1:20:36
Mycket mer än vad det redan gör.
1:20:38
Så visst nu så mycket om. Och det är väl väldigt
1:20:40
rätt i tiden med att vi
1:20:42
pratar om det också, Men mycket av pratet som är är
1:20:44
ju ett okänt i butiken och
1:20:47
detta sätter butiken i rätta
1:20:47
och man kan ju det här och är så
1:20:50
smart och man kan allt man kan
1:20:53
göra och vad det får för dåliga konsekvenser Och.
1:20:55
få dumma grejer. Garvade men det fanns
1:20:56
inte så mycket om.
1:20:59
Det här med datan och vad det finns för sådana. Det har inte hörts mycket i
1:21:04
media och har inte som pratar om
1:21:06
det alls eller inte nämns. Sån tur att jag söker
1:21:09
aktivt efter min insats ändå
1:21:11
på nu när jag inte då ser det här.
1:21:13
Tycker om och tänker om. Om barnsyn, trygghet i data.
1:21:19
Den har jag aldrig hört innan. Sedan finns
1:21:21
Nej.
1:21:21
Självklart diskuteras det inte det, men visst, man hör om det och
1:21:25
det borde pratas mer om. En av alla saker som se.
1:21:28
Jag funderar på hur
1:21:28
det påverkar, till exempel om
1:21:30
vi inne på stat rättsystemet.
1:21:32
Du kan ju teoretiskt sett
1:21:32
inte använda det till att begå
1:21:36
direkta brott, men du kan ju
1:21:36
indirekt använda det till att
1:21:40
utveckla med till exempel eller
1:21:40
framställa falsk information.
1:21:45
Och det finns ju kött i
1:21:45
butik, inte enbart ett.
1:21:48
Det är ju inte det enda verktyget. Finns massa olika verktyg.
1:21:51
Hur påverkar och i
1:21:51
rättssystemet och hur?
1:21:55
Hur ska vi kunna
1:21:55
säkerställa rättvisa när
1:21:57
det är datorer som har.
1:21:59
Är grunden bakom problemet.
1:22:01
Och vem bär ansvaret?
1:22:03
Precis.
1:22:04
För att om jag släpper
1:22:04
en algoritm och sedan så jobbar
1:22:07
du på att fortsätta lära upp
1:22:07
den och du nyttjar den för ett
1:22:11
annat syfte än jag som byggde
1:22:11
algoritmen eller den tjänsten.
1:22:16
Eller om det är produkten? Eller är det du?
1:22:19
Eller är det den själv som har
1:22:19
någon form av juridisk person?
1:22:24
det är ju det här. Det här är ju inte
1:22:24
alls mitt område.
1:22:28
Men.
1:22:29
Nej. Nu har vi spårat
1:22:31
Barbapappa. Men det är jätteviktiga frågor.
1:22:34
Ansvarsområdena och
1:22:34
ansvarstagandet.
1:22:36
Eller liksom vem vem
1:22:36
står som ansvarig?
1:22:40
Otroligt. Då kan man få i sig det också. På den positiva sidan då.
1:22:44
I.
1:22:44
Vad menar jag? Komma fram med något
1:22:45
som leder till patent?
1:22:47
A och jag. Jag.
1:22:51
I.
1:22:52
Eller alla dessa
1:22:52
genererade låtarna och
1:22:54
konstverken och liknande. Liksom vem är vem äger
1:22:55
rättigheterna till dem?
1:22:58
I.
1:22:59
Ja, och det finns
1:22:59
ju, men då kan man ju också
1:23:03
vända tillbaka på myntet. Copyright Ägandet
1:23:04
av dem som äger
1:23:07
Bäst.
1:23:08
som den tränats
1:23:08
på de äganderätt på de
1:23:11
bara och sedan skapar?
1:23:13
Vid jätteviktig
1:23:13
fråga också, men där vill ändå
1:23:15
nästan säga för ja, fast hur
1:23:15
många är det som vaknar upp
1:23:19
och har liksom bott i en låda
1:23:19
med ingenting i hela sitt liv
1:23:22
och som skrev ett mästerverk? Någonstans
1:23:24
har vi ju alla blivit påverkade av vår. Är det information
1:23:27
I.
1:23:27
runt omkring oss.
1:23:28
Jag. Om vi ska avsluta med en
1:23:30
sista fråga Vad är din största
1:23:33
förhoppning? Vad hoppas du är liksom
1:23:39
i framtiden och vad ser du fram emot?
1:23:41
det. Hoppas att AI ska
1:23:42
hjälpa oss läsa mer.
1:23:45
Jag frågade.
1:23:46
Det kan vi nog
1:23:46
stämma in i ett eller båda
1:23:50
två också från den här sidan. känns fullt rimligt.
1:23:55
Är det fullt rimligt. Problem att lösa kanske, men det
1:23:56
känns som ett problem man hade.
1:23:58
Man bör sätta av tid på
1:23:58
att hantera enorma mängder
1:24:01
data och korrigera den för att faktiskt
1:24:04
jag vet inte hur man skulle kunna göra det. Eller eller
1:24:07
vad han nu skulle kunna hjälpa oss med. Men om det finns någonstans
1:24:08
jag hoppas att en vägg har
1:24:11
en jättestor bakgrundsbild
1:24:11
är just att kunna hitta
1:24:15
lösningen på mänsklighetens
1:24:15
största utmaningar.
1:24:18
Och då är ju frågan
1:24:18
definitivt en av de.
1:24:20
Fint avslutat måste jag säga. Mycket
1:24:23
fint. Då gör vi så att du avslutar
1:24:24
vi och så får Rebecka köra
1:24:27
veckans tips den här veckan.
1:24:29
Det var mitt tips
1:24:29
till alla som lyssnar.
1:24:32
Är du less på tjat, GPT,
1:24:32
Bing och allt annat så ska
1:24:38
du gå och googla kapp GPT.
1:24:41
Det är allt du behöver.
1:24:42
Catchy.
1:24:43
Kat C och
1:24:44
Klart.
1:24:45
A.
1:24:45
Vad händer om man googlar Cats?
1:24:54
Det är bara det.
1:24:55
Men.
1:24:59
Nej du, du kan
1:24:59
hitta vägar in när det
1:25:01
gäller hur du kan öppna.
1:25:08
Jag tycker det
1:25:09
Oj.
1:25:09
bara är så
1:25:10
Det är orimligt kul.
1:25:12
att det är så
1:25:12
att när jag bara får
1:25:14
nog, jag bara gör det. Jag tar under 30
1:25:16
sekunder med kraft.
1:25:19
Jag.
1:25:22
Jag. tycker faktiskt inte vi
1:25:22
avslöjar mer än så, utan
1:25:26
folk får bara googla. Kanske epitet.
1:25:30
ju! Tack så jättemycket för
1:25:31
att du ville vara med!
1:25:33
Tack så mycket för att jag fick vara med
1:25:35
Ett Har vi
1:25:35
sagt någonting märkligt.
1:25:37
Man vill tipsa om framtida
1:25:37
gäster eller ämnen så kan
1:25:40
man maila till taktiker
1:25:40
ett gym med punkt com.
1:25:43
När man lyssnar på denna så
1:25:43
antar jag att man lyssnar i sin
1:25:46
favoritsport spelar massa på. Passa på och prenumerera och
1:25:48
betygsätta oss där vi finns på
1:25:52
i princip alla sociala medier. Misstänker att vi har
1:25:53
inte missat något, men.
1:25:56
Tick tack. Instagram, Twitter, Facebook,
1:25:59
LinkedIn, you name
1:26:01
it och finns med oss där vi inte finns så mejla
1:26:02
oss så löser vi det också.
1:26:04
Vi lägger Rebeckas
1:26:04
kontaktinformation i
1:26:07
kör notis om man vill
1:26:07
hitta henne på internet.
1:26:11
då tackar vi Rebecka
1:26:11
för denna gången och
1:26:14
Tack så mycket!
1:26:14
och ses vi och
1:26:14
lyssnar nästa vecka.
1:26:17
Jag har ju.
1:26:18
så ses vi på måndag. Ha det!
Podchaser is the ultimate destination for podcast data, search, and discovery. Learn More