Podchaser Logo
Home
GA #1186 | Nicolai Greiner - Datenschutz als globaler Wettbewerbsvorteil

GA #1186 | Nicolai Greiner - Datenschutz als globaler Wettbewerbsvorteil

Released Thursday, 21st March 2024
Good episode? Give it some love!
GA #1186 | Nicolai Greiner - Datenschutz als globaler Wettbewerbsvorteil

GA #1186 | Nicolai Greiner - Datenschutz als globaler Wettbewerbsvorteil

GA #1186 | Nicolai Greiner - Datenschutz als globaler Wettbewerbsvorteil

GA #1186 | Nicolai Greiner - Datenschutz als globaler Wettbewerbsvorteil

Thursday, 21st March 2024
Good episode? Give it some love!
Rate Episode

Episode Transcript

Transcripts are displayed as originally observed. Some content, including advertisements may have changed.

Use Ctrl + F to search

0:00

Dieser Podcast wird präsentiert

0:02

von Genius Alliance

0:04

.

0:06

Das ist einfach so der Vertrauensansatz , und

0:08

vielleicht habe ich da einfach den Glauben in die Menschheit trotz

0:11

Facebook und Google noch

0:13

nicht verloren . Ich glaube einfach nicht , dass

0:15

, wenn der Mensch die Wahl hat zu

0:17

einer vernünftigen Alternative

0:20

, wenn er die Wahl hat , ich kann

0:22

das machen , ohne dass ich mich gedanklich

0:25

nackt ausziehen muss , oder mit Bin

0:28

ich immer noch der Ansicht wird sich der Mensch dafür entscheiden , seine

0:30

Privatsphäre irgendwo zu behalten . Und

0:33

das ist ein Ansatz , der lohnt

0:35

, dass man den verfolgt , dass

0:38

man den Leuten zeigt passt auf , bei

0:40

uns kriegst du was , aber du kriegst es sicher , und

0:43

jetzt nicht nur im Hinblick auf Datenschutz

0:45

, sondern es ist auch IT sicher .

0:49

Du hörst den Genius Alliance

0:52

Podcast . Du

0:55

bist Unternehmer und möchtest die

0:57

nächste Evolutionsstufe der Digitalisierung

0:59

erreichen ? dann starte jetzt und

1:02

gewinne neue Kunden im Online-Dschungel

1:04

Mit

1:09

starken Interviews , wertvollen

1:12

Erfolgsstrategien und hochspezialisierten

1:14

Digitalexperten . Der

1:17

Genius Alliance Podcast

1:19

von und mit Founder und

1:21

CEO Norman Müller

1:24

.

1:26

Es ist wieder Zeit für eine neue Folge hier

1:28

im Genius Alliance Podcast . Mein Name ist Norman

1:30

Müller , und heute habe ich Nikolaj

1:32

Greiner zum Interview eingeladen . Er

1:35

ist ein Top-Experte , denn er beschäftigt

1:37

sich seit 20 Jahren mit IT-Recht

1:40

und Datenschutz . Hallo , nikolaj .

1:42

Hallo Norman . danke für die Einladung , Sehr

1:44

gerne .

1:46

Nikolaj , wir wollen heute über

1:48

zwei Themenbereiche sprechen , die unmittelbar

1:51

miteinander zu tun haben , denn

1:53

wir werden uns heute mit dem Thema natürlich

1:56

KI beschäftigen , ganz besondere in

1:58

Verbindung mit dem Datenschutz . Also , welche Wettbewerbsvorteile

2:01

, welche Chancen ergeben sich hier für

2:03

uns als Wirtschaftsstandort Kuhburg

2:06

, deutschland , eu

2:09

? Und wir werden auch natürlich hinzuziehen

2:11

in die neue KI-Verordnung , wenn mal ein

2:14

paar Grundlagen heute in diesem

2:16

Interview gemeinsam schaffen , damit

2:18

auch alle da draußen mitreden

2:20

können . Wir werden das heute versuchen

2:22

. Man sagt

2:24

, ja , die Juristerei ist so ein bisschen trocken

2:27

, ich habe dich kennengelernt , und alles andere

2:29

oder diese

2:31

Themen haben sich überhaupt nicht bewahrheitet . Deswegen

2:34

freue ich mich sehr , dass wir heute mal hier so einen Aufschlag

2:36

machen . Ich kann mir mal vorstellen , dass wir eine kleine Staffel draus

2:38

machen , weil sicher viele Rückfragen kommen

2:40

, gerade zum Einsatz von

2:42

künstlicher Intelligenz , und deswegen

2:45

würde ich sagen stell dich doch vielleicht selbst nochmal kurz vor

2:47

, wer bist du so als Privatperson , und was genau

2:49

machst du beruflich .

2:51

Sehr gerne . Also , wie du schon

2:53

gesagt hast , mein Name ist Nikolaj Greiner , ich

2:56

bin Jurist , also ich habe das

2:58

ganze Thema studiert und

3:02

habe mittlerweile meine eigene

3:04

Kanzlei , die Private Legal , so

3:10

als zusätzlich zu meinem eigentlichen Job . Ich arbeite

3:12

bei der Hukuburg als Datenschützer , bin

3:17

aber quasi hier als Privatmann Ansonsten

3:22

du hast gesagt , seit 20 Jahren

3:24

in dem Thema drin , wenn du den

3:27

universitären Schwerpunktsbereich , wo das ganze

3:29

IT-Richt und Datenschutz auch schon mein Thema war

3:31

, mitzählst . Also

3:34

, ich habe viele technische Entwicklungen mittlerweile

3:36

mitgemacht , und

3:38

ich brenne immer noch für das Thema . Und

3:40

da kann ich gleich überleiten zu der

3:42

Sache , die du gesagt hast Juristerei

3:45

ist trocken . Genau deswegen brenne

3:47

ich so für die Themen IT und Datenschutzrecht

3:49

, weil das alles andere als trocken

3:51

, das ist

3:54

eines sage ich mal der Rechtsgebiete , wo

3:56

du dich am tiefsten eigentlich mit der

3:58

Nebenmaterie , also außerhalb des Rechts mit

4:00

der Technik befassen musst . Du

4:03

musst kapieren , was da passiert , damit du mit den Leuten

4:05

auch , sage ich mal , auf einem Level reden kannst . Du musst

4:07

in der Lage sein , das

4:09

Juristische in der Sprache vielleicht ein bisschen

4:11

abzulegen und zu gucken , dass du da auf einen

4:13

Nenner kommst , und das ist super spannend

4:16

, und ich könnte mir eigentlich kein schöneres Berufsfeld vorstellen

4:18

.

4:18

Ja schön . Also genau diesen

4:20

Eindruck hast du mir auch bei unserem ersten Gespräch vermittelt

4:23

. Deswegen habe ich gesagt lass uns unbedingt ein Podcast aufnehmen

4:25

, weil genau darum geht es . Es geht

4:27

auf der einen Seite natürlich die Einschätzung oder auch

4:29

die Einordnung , besser gesagt in

4:31

das Recht , was

4:33

wir haben in Deutschland und in der EU , und auf der anderen

4:35

Seite natürlich auch das Verständnis

4:37

. Und vor allem , wenn du das seit

4:40

fast 20 Jahren jetzt machst , dann

4:42

kennst du natürlich auch die Wellen

4:44

der Digitalisierung und KI . Ich

4:46

habe es gestern in einem Meeting mal

4:48

gesagt KI ist im Grunde um

4:51

es mal zu vereinfachen , es ist ja

4:53

nicht irgendwie KI gibt es ja nicht erst seit Chatchi BT

4:55

, sondern das ist einfach eine weitere

4:57

Entwicklung , klar eine Evolution-Stufe

5:00

, wenn nicht sogar eine Revolution

5:02

, aber im Grunde eine Weiterentwicklung der Digitalisierung

5:05

. Deswegen jeder , der KI im

5:07

Unternehmen einsetzen möchte oder sich damit beschäftigt

5:09

, da muss sich zwangsläufig auch mit der Digitalisierung

5:11

beschäftigen oder mit digitalen Prozessen beschäftigen

5:14

. Deswegen gleich mal die Frage

5:16

vorne weg Jetzt haben wir ja einen unfassbaren

5:19

Hype erlebt mit Chatchi BT . Wir

5:22

setzen das alle super gerne

5:24

ein , und nicht nur dieses Tool , sondern auch andere

5:26

Bilderstellungstools . Jetzt

5:29

haben wir gerade erlebt , dass wir Hollywood

5:31

noch angreifen können , weil jetzt auch noch Filme

5:33

möglich sind in der Top-Qualität , ich

5:36

glaube , bis 60 Sekunden ist

5:38

das unglaublich , was diese Technologie heute kann

5:41

. Allein in den letzten drei

5:43

Monaten habe ich gestern mal geschaut , was dort

5:45

technologisch sich alles verändert hat

5:47

. In drei Monaten , ja , also nicht drei

5:49

Jahren , sondern wirklich in einem sehr kurzen Zeitraum

5:51

sind schon Sprachmodelle

5:55

auf den Markt gekommen , die einfach mal

5:57

50 Prozent mehr Power haben als

5:59

die Version davor . Wie

6:02

nimmst du das wahr ? Wie

6:04

gehen Unternehmen und die

6:06

darin enthaltenen Menschen mit

6:08

diesem Thema um ? Ist es zu leichtfertigt

6:11

, ist es noch nicht gut eingeordnet

6:13

? Vielleicht einfach

6:15

mal deine Perspektive , so als ersten Aufschlag

6:17

.

6:18

Also ich würde gerne vorwegnehmen , ki

6:20

, wie du gesagt hast , war ein Prozess

6:23

, aber

6:25

gefühlt hat es sehr viele

6:27

Juristen und auch den Gesetzgeber am Ende dann

6:29

doch überraschend . Man hat jahrelang gesagt , ki kommt

6:32

, wir müssten da irgendwie mal uns mit befassen , und

6:34

plötzlich war es wie Schnipp

6:37

, und es war da Ein

6:40

absoluter du hast das gesagt ein Hype , und

6:44

jeder hatte plötzlich auch das Gefühl , wenn ich jetzt nicht

6:46

aufspringe , bin ich zu spät . Dann

6:49

ist mir quasi alles weggenommen am Markt , egal

6:51

welche Branche das ist . Das ist mein Eindruck , und

6:56

da

6:58

kann ich nur sagen , ich meine , es ist gekommen , um zu bleiben

7:01

, also nicht

7:03

mit dem Gefühl rangehen , ich bin zu spät eingestiegen

7:05

, also lasse ich es gleich . Aber

7:09

du hast gesagt , wie setzen das

7:11

manche zu leichtfertig ein ? Ich

7:13

glaube , bis zu einem gewissen Grad

7:15

ja , eben aus der

7:17

Angst heraus , was zu verpassen . Aber

7:21

ich habe auch schon viele erlebt , die

7:24

sich da

7:26

wirklich Gedanken machen , wobei

7:31

es und vielleicht kommen wir da später noch

7:33

mal drauf zurück ist natürlich schwierig

7:36

, bei was , was über Nacht plötzlich da war , mit

7:38

dem der Gesetzgeber gar

7:40

nicht Schritt halten konnte , das so

7:42

einzuordnen , dass ich sage , du bist da überall

7:45

im zuckergrünen Bereich

7:47

immer unterwegs , was vielleicht auch gar

7:49

nicht sein muss . Aber

7:53

es gibt schon so ein paar Faltsträge auf . Die

7:55

muss man definitiv aufpassen . Die

7:57

liegen im Kerngebiet

7:59

, im Datenschutzrecht , die liegen

8:01

in der neuen KI-Verordnung , die kommt , wir sprechen

8:03

es nachher noch mal an . Die liegen

8:05

aber auch in Bereichen , mit denen man erst mal gar nicht

8:07

so richtig das ganze

8:09

verbindet Thema Urheberrechte oder irgendwas

8:11

, weil du die Bildgeneratoren angesprochen hast . Das

8:14

ist ein ganz heikles Thema . Also

8:18

, das sind viele Dinge , die man beachten

8:20

muss , und es ist

8:22

gefühlt schon so , dass erst die Technik

8:25

da war und sich jetzt Gedanken darüber gemacht wird

8:27

, wie ordnen wir das ein . Aber

8:29

das muss auch nicht schlechtes sein , weil , wie gesagt

8:31

, auch der Gesetzgeber selbst , die Aussichtsbehörden

8:34

hinten gerade dem technischen Fortschritt irgendwo

8:36

hinterher , und

8:40

das hat auch ein bisschen was mit dem Zeitgeist

8:42

aktuell zu tun . Nichtsdestotrotz

8:44

ist nämlich als Jurist mein Plädoyer wir müssen gucken

8:46

, dass wir das am Ende des Tages dann trotzdem alles

8:48

so einsetzen , dass wir uns nicht

8:50

mehr Schwierigkeiten als Vorteile verschaffen

8:53

. Aber aus meiner Sicht

8:55

kann ich vorwegnehmen , geht das auch . Also

8:59

.

8:59

Nikolaj , das mag ich so an dir , weißt du , das

9:01

mag ich so an dir , weil du sagst , wir schaffen

9:03

Möglichkeiten in einem rechtssicheren Raum

9:06

oder versuchen das . Es

9:08

geht ja gar nicht darum und sonst

9:10

wäre auch unser Podcast so gar nicht zustande gekommen irgendwas

9:12

zu verbieten durch

9:15

Gesetzestext , sondern es geht wirklich darum , wir

9:17

können uns für diese Technologie nicht mehr verschließen

9:20

. Und die Frage ist wie kann ich das Ganze sicher

9:22

für mein Unternehmen , für meine

9:24

persönliche Identität einsetzen

9:27

? Das ist das , warum wir

9:29

uns hier heute getroffen haben . Ich habe ein ganz

9:31

konkretes Beispiel . Ich habe mit einem

9:34

Freund von mir gesprochen , der ist im geholfenen Management

9:36

eines Automobilkonzerns , und

9:38

ich habe gesagt wie machten ihr das mit

9:40

KI ? Welche Tools setzen ihr da ? ein ? War voll

9:42

neugierig , wollte wissen , wie effizient

9:45

die in den Abteilungen arbeiten . Und dann hat er mir

9:47

gesagt bei uns sind alle Ports gesperrt , wir

9:49

können das gar nicht verwenden . Du

9:51

profitierst nicht von dieser

9:54

Technologie in deinem Unternehmen , deiner täglichen

9:56

Arbeit . Und er sagt er doch . Und

9:59

dann habe ich gesagt okay , wie machst du das ? Und er sagt er

10:01

, wenn ich aus einem Meeting komme , dann

10:04

nehme ich das Protokoll quasi

10:06

mit nach Hause und setze mich zu Hause

10:08

hin . Da habe ich LGBT im Einsatz , und dann spreche

10:11

ich die ganzen Sachen da rein oder tippt es und

10:13

lass mir das Protokoll erstellen , wofür

10:16

ich Stunden gebraucht habe in der Vergangenheit . Das

10:18

schaffe ich dann einfach in wenigen Minuten Für

10:21

mich als Nicht-Juristen . Ich

10:24

hatte sofort Temperatur . Wie geht es dir damit

10:26

?

10:28

Ja als Jurist , der sich damit der Geschichte

10:31

eingebe fast kriegst du auch Temperatur Aber

10:33

jetzt gar nicht mal wegen dem möglichen

10:36

Rechtsverstoß , der dabei irgendwie passiert

10:38

, sondern weil ich es , wie

10:42

dein Freund ja gesagt hat , im Unternehmen

10:44

sind die Ports bei ihm gesperrt . Er

10:48

nimmt quasi die Daten irgendwo mit nach Hause

10:50

, und da reden wir noch gar nicht von Datenschutz

10:53

. Das sind wir dabei dass er sehr , sehr sensible

10:55

Unternehmensdaten plötzlich

10:57

in ein am Markt frei verfügbares

10:59

Tool , von dem wir und dann müssen wir ehrlich

11:01

zu uns sein von dem wir nichts wissen , dass für uns

11:03

eigentlich eine Blackbox darstellt

11:05

. Gibt er sehr sensible

11:08

. Ja , ich finde das übrigens immer sehr amüsant , wenn Jetschie

11:10

BT wieder sagt wir sind so überrascht , was unser Modell

11:12

alles kann , und

11:16

da werden dann teilweise je

11:19

nach je nach quasi

11:22

Position in dem Unternehmen , die dein Freund da bekleidet

11:24

, für ihn ein Beispiel gehen

11:27

da Sachen über den Äther , wo ich gar nicht weiß , was

11:30

da passiert , also nicht umsonst übrigens haben . Samsung

11:33

hat sehr schnell Lehrgeld bezahlt bei dieser Sache mit Jetschie

11:36

BT damals . Die

11:39

haben das dann sehr schnell eingestellt , und

11:43

wenn ich sowas im Unternehmen aktuell

11:45

anbiete , dann sollte ich das

11:47

zumindest auf einer organisatorischen Ebene

11:49

heben , dass ich

11:51

allen Leuten das nötige Rüstzeug mitgebe

11:54

, dass die auch kapieren , was das Gefährliche

11:56

ist , was gefährlich ist , wenn sie da tun . Wenn

11:59

sich jetzt jemand , sag ich mal

12:01

einfach zur Unterstützung

12:03

bei einer Formulierung beim Text formulieren

12:05

helfen lässt , da verletzt du

12:07

da weder Rechte . Also da

12:09

ist es sehr , sehr schwer , irgendwie einen Schaden anzurichten

12:12

. Wenn du dann aber komplette Unternehmensdokumente

12:14

da reinlädst , um

12:17

sie dir zusammenfassen zu lassen , dann

12:19

weißt du am Ende des Tages aktuell nur

12:21

sehr bedingt , wo deine Daten tatsächlich landen

12:23

, und

12:26

das ist die Crux bei diesen offenen Modellen

12:28

, klar . Also , du kannst mittlerweile bei

12:30

JGBT ja auch irgendwie da Häkchen

12:32

setzen . Soll nicht zu Trainingszwecken gespeichert

12:35

werden ?

12:38

Ist das safe ? Ja , gut .

12:39

Nee , das ist nicht safe .

12:42

Also und da von mir quasi

12:44

erstmal der erste Praxistip , wenn ich sowas einsetze

12:47

, jetzt aktuell mit , sage

12:49

ich mal , jetzt vielleicht nicht

12:51

ganz frei verfügbaren weil ein bisschen ein Obolus

12:53

muss als Unternehmen ja so trotzdem zahlen Aber

12:55

doch rentig recht günstig am Markt verfügbaren

12:59

Tools wie jetzt JGBT als Beispiel , einfach

13:01

weil es der große . Oder nimm das neue

13:03

Gemini von Google Schön . Wenn

13:07

du da das einsetzt , dann

13:10

sind also meiner sich zwei Dinge irgendwo

13:12

eigentlich unersetzlich . Also einmal , du

13:15

musst deine Mitarbeiter damit wirklich vertraut machen

13:17

, du musst denen sagen , was darfst du , was darfst du nicht

13:20

. Als

13:23

Jurist sage ich immer ja , wir vertrauen den Menschen

13:25

. Aber eine technische Sicherung ist am Ende

13:27

des Tages meistens besser . Gar

13:30

nicht mal , weil die Leute was Böses anstellen wollen , sondern

13:32

weil die einfach sorglos sind im Umgang , und

13:35

da ist es aktuell das Beste , wenn du das halt noch

13:37

quasi so ein bisschen das Modell als

13:39

solches , ein bisschen Sandboxt , also

13:41

es nicht frei auf dem Server betreibst

13:43

. Jetzt mit JGBT kannst

13:45

du beispielsweise , wenn du jetzt von einem etwas größeren

13:47

Unternehmen sprichst

13:49

die haben wahrscheinlich im Moment alle irgendwie Aschatenance

13:52

oder irgendwas den kannst du in einem Ascher betreiben

13:54

, wo du zumindest zwar

13:57

noch nicht die Hoheit , die am Ende des Tages wünschenswert

14:00

wäre , hast , aber du

14:02

hast zumindest ein

14:05

riesen Risiko des Datenabflusses irgendwo

14:08

zumindest halbwegs minimiert . Und

14:10

das ist das , wo ich sage , das

14:13

ist eigentlich das , was ich heute machen

14:16

muss , wenn ich

14:18

nicht wirklich zu sorglos an die Numero angehen

14:20

möchte .

14:23

Ja , ich würde sogar noch weitergehen . Also , ich

14:26

glaube , die großen Konzerne haben damit weniger

14:28

ein Thema , weil die

14:30

haben natürlich die KI-Kompetenzen

14:32

im Haus , die haben das nötige Kleingeld

14:34

, um vielleicht auch in solche Ascherumgebungen

14:36

zu investieren . Ich

14:40

glaube , wir tragen so jetzt

14:43

auch am Gründerzentrum

14:46

in Koburg so eine Fahne vor uns her und sagen KI

14:48

für alle . Also , es muss ja auch für kleine und

14:50

mittelständische Unternehmen möglich

14:53

sein , ki einzusetzen und das datenschutzkonform

14:55

, und wir beschäftigen

14:58

uns dort einfach auch mit unseren Startups

15:00

damit . Wie können wir den Unternehmen helfen

15:02

? wie können wir den Unternehmenslösungen

15:04

anbieten , um auch mit ihren

15:06

eigenen Daten zu arbeiten , aber

15:09

das möglichst

15:11

datenschutzkonform , weil es geht ja

15:13

immer um den einen dummen Fall , wo

15:16

dann irgendwelche Daten das Unternehmen verlassen

15:18

, die mir wieder zum Verhängnis werden .

15:25

Also das müssen nicht mal personenbezogene Daten sein , wo

15:27

du dann im Datenschutzrecht drin bist . Wie gesagt

15:29

, das können auch Unternehmensgeheimnisse sein Kommt

15:32

immer auf die Branche drauf an . Wenn du jetzt Automobilbranche

15:34

sagst als Beispiel vorhin , die haben hochsensible

15:37

Unternehmensdaten , das ist ja Samsung auch passiert

15:39

, dass die Entwickler da plötzlich eigentlich Geschäftsgeheimnisse

15:41

reingehauen haben und die dann halt irgendwo

15:43

anders aufgetaucht sind , wenn es blöd läuft , weil

15:46

du ja nicht weißt , ob die nicht doch irgendwie jemand

15:48

wieder aus diesem Modell herausholen kann am

15:51

Ende des Tages . Aber das , was du gesagt

15:53

hast , hier auch den

15:55

Kleinen zu helfen , das Datenschutzkonform

15:58

machen zu können , das ist genau

16:00

, sage ich mal , ein Teil unseres Themas , über das

16:02

wir heute reden wollen , aus meiner Sicht Absolut

16:04

Dass wir an

16:06

der Front sagen

16:08

können wir können hier im

16:11

ersten Mal wir nehmen mal den europäischen

16:13

Kontext im europäischen Raum vielleicht

16:16

Dinge schaffen , für

16:19

die die großen US-amerikanischen

16:21

Tech-Unternehmen überhaupt kein Gefühl haben . Und

16:25

das ist das , wo wir vielleicht einfach besser

16:27

sein können in dem Thema vertrauenswürdige

16:29

KI .

16:30

Ja , Das ist ja auch das , was wir eingangs

16:33

gesagt haben , dass das sogar ein Wettbewerbsvorteil

16:35

wäre , dass wir sagen hey , wir entwickeln

16:38

hier KI-Lösungen , die datenschutzkonformen

16:40

sind , und die

16:43

lassen sich natürlich dann auch darüber hinaus im weltweiten

16:45

Markt anbieten . Weil wir sehen

16:47

das ja so schön zum Beispiel

16:49

in China , dass diverse

16:52

Scorings gibt , wenn ich

16:54

mich entsprechend verhalte , irgendwelchen

16:57

Regeln unterwerfe , und wenn ich das eben nicht

16:59

tue , dann entsprechende Konsequenzen wie

17:01

teurere Versicherungen und dergleichen , und

17:03

das funktioniert eh auch alles schon

17:05

mit KI und sorgt ja dafür

17:08

, dass meine Identität , die ja

17:10

durchs Internet und Social Media sowieso schon sehr

17:12

transparent ist , jetzt auch

17:14

noch zu bestimmten Privilegien

17:16

führt oder den Entzug von

17:18

gewissen Privilegien führt . Also ich glaube

17:20

, dass wir damit natürlich einen

17:22

riesen Vorteil haben , wenn wir uns

17:25

genau auf das , was uns eigentlich in den letzten Jahren genervt

17:27

hat , nämlich das Thema Datenschutz und irgendwelche Cookie-Banner

17:30

wegklicken und so weiter , wenn

17:32

wir das in den

17:34

Fokus setzen . Lassen Sie uns mal

17:36

einen Schwenk machen auf die Regulierung

17:39

von KI , bevor wir weiter

17:41

über den Wettbewerbsvorteil sprechen , weil ich glaube , diese

17:44

Grundlage im Kopf zu haben , was

17:47

das eigentlich bedeutet und was das eben

17:49

dann auch in der Konsequenz auch für eine Chance ist , wäre

17:52

nochmal ein ganz wichtiger Punkt . Kannst du

17:54

nochmal so ganz kurz wiedergeben , was

17:56

der AI-Act oder die KI-Verordnung

17:59

eigentlich ist und was die regeln soll .

18:02

Ja , also letztlich hast du

18:04

, wenn du von der Regulierung von KI-Modellen redest

18:06

, hast du aktuell zwei große Rahmenwerke

18:08

. Du hast natürlich immer dann , wenn es um personenbezogene

18:11

Daten gibt , die Datenschutzgrundverordnung

18:13

. die haben wir schon länger

18:15

, die haben wir seit 2018 . Und

18:19

jetzt kommt die KI-Verordnung

18:21

dazu , also das , was als AI-Act

18:23

, also im englischen Begriff , was

18:27

auch durch die Medien geht , was

18:29

auch dieses Zeheringeln

18:31

im europäischen Gesetzgebungsprozess ja

18:33

auch durch die Medien gegangen ist , Kann

18:36

vielleicht in der anderen Folge mal darüber reden , wie schwierig so was

18:38

ist ? Und

18:42

diese Verordnung ist

18:45

jetzt quasi in den letzten Zügen . Die muss nur noch vom Europäischen

18:48

Parlament unterschrieben werden . Das ist eine Formsache

18:50

. Dann wird die erst mal im Gesetzblatt

18:52

veröffentlicht , und 20

18:54

Tage danach ist die einfach

18:56

da . Und was macht jetzt

18:58

diese KI-Verordnung ? Diese

19:00

KI-Verordnung geht

19:04

risikoorientiert an die Sache ran . Also

19:07

, diese KI-Verordnung möchte einfach

19:10

die Risiken , die mit KI einhergehen

19:12

, und zwar besondere Arten von KI , reduzieren

19:17

, möchte ich jetzt mal sagen . Das

19:21

heißt , du hast in der KI-Verordnung hast du einen

19:23

Bereich , das nennt sich verbotene KI

19:26

. Die ist nicht erlaubt . Also , die ist

19:28

einfach per se mit wenigen Rückausnahmen

19:30

. Das Gesetz ist ein bisschen komplex . Erst

19:32

macht es einen Grundsatz auf , und dann gibt es wieder , aber

19:35

dafür braucht man am Ende des Jahres halt noch die Juristen . Was

19:41

wären verbotene ? Das

19:43

, was du jetzt hier über China gesagt hast , dieses

19:46

Social Scoring und daraus

19:48

Nachteile für Menschen ziehen durch

19:50

eine gezielte Analyse seines

19:53

Verhaltens in seinem Sozialbereich , das

19:55

wäre beispielsweise etwas , das ist da aufgelistet

19:57

als verbotene KI . Was

20:02

hätten wir noch bei den

20:04

verbotenen KI's ? Was haben wir da drin ? Manipulative

20:07

Techniken , um Leute zu beeinflussen

20:09

, ein potentiell schädliches Verhalten vorzunehmen

20:12

, für sich oder für andere . Ausnutzen

20:16

von besonders Schutzbedürftigen

20:19

Personen , also Kindern , alten

20:23

Leuten , leute , die halt einfach

20:25

aufgrund des eigenen Zustandes

20:28

nicht in der Lage sind irgendwie da , einen menschlichen

20:31

Verstand dagegen zu setzen , dass

20:35

man einfach diese Schwächsten in der

20:37

Gesellschaft jetzt völlig ohne

20:39

Wertung durch KI

20:42

noch übervorteilt und da irgendwie was

20:44

ausnutzt . Also du merkst schon , es

20:46

geht wirklich auf Sachen , die

20:49

wirklich schon hart sind

20:51

, wo du die hörst , und du hast sofort

20:53

ein absolutes Unrechtsgefühl

20:55

dabei . Anderes

20:57

Thema biometrische Identifizierung

21:00

anhand besonders sensibler Merkmale Rasse

21:03

, sexualität

21:06

ist , glaube ich , noch mit drin , wo

21:09

du sagst das ist was da

21:12

. Wenn ich halbwegs mit demokratischen

21:14

Werten aufgewachsen bin , fällt mir das schon auf

21:16

, dass das schlecht ist , wenn

21:19

ich die Menschheit in schwarz oder weiß unterteile

21:21

, und das sind so Dinge

21:23

, die stehen da drin . Deswegen

21:26

braucht , glaube ich , für diesen verbotenen Praktiken

21:28

hier bei uns

21:31

auch kein Unternehmen groß Angst haben , dass

21:33

es da wirklich komplett hart

21:35

reinfällt , weil das

21:37

sind wirklich Dinge , wo der Gesetzgeber

21:40

gesagt hat , die sind so jenseits

21:42

von wirtschaftlichen Interessen , dass

21:45

ich das noch irgendwie rechtfertigen kann , dass die einfach verboten

21:48

gehören .

21:50

Ist absehbar , dass das Feld

21:52

enger gefasst werden muss , um

21:54

es einfach besser regulieren

21:56

oder auch kontrollieren zu können . Ich

21:59

will sagen , ich

22:02

habe mich mit vielen Technikern

22:04

auseinandergesetzt und Nerds

22:06

, die KIs entwickeln , die eigene KI-Modelle

22:08

haben , und es gibt

22:10

einen Punkt , an dem es aufhört

22:12

, dass sie verstehen , was das System

22:14

am Ende tut . Es ist eine Blackbox . Sie

22:18

wissen teilweise nicht , wie kommt die

22:20

KI oder das KI-Modell zu einem bestimmten Ergebnis

22:22

, und das sind jetzt generative

22:25

KI-Modelle . Wir

22:27

reden ja noch nicht über Artificial General

22:29

Intelligence , also die nächste Ausbaustufe

22:31

Oder die Ausbaustufe , wo

22:34

eine KI sagt hey

22:36

, weiß ich gerade nicht . Ich frage mal die andere

22:38

KI , ob die mir das eben schnell beibringen

22:40

kann . Es

22:43

ist der Anfang von etwas , ganz sicher

22:45

, aber wie sieht es aus , auch mit

22:47

der Übernahme von Verantwortung

22:49

und Haftung , wenn

22:51

ich gar nicht weiß , was

22:54

mein KI-Modell da am Ende anstellt und

22:57

gegen den AIEigt schürzt ?

22:59

Schwierig . Also

23:02

, wir haben ja außer diesen verbodenen Praktiken

23:04

gibt es dann noch die Hochrisiko-KI . Das

23:07

ist also , kann man

23:09

sich vorstellen , entweder Sachen , die jetzt

23:11

schon irgendwie sicherheitsrelevant sind . Ein

23:13

KI-System in dem Auto ist sicherheitsrelevant , deswegen

23:15

muss es besondere Ansprüche

23:18

erfüllen , beispielsweise . Dann

23:21

hast du noch in der Abgrenzung

23:23

die General Purpose AI nennt

23:26

es , der AIEigt . Das ist das , was wir jetzt

23:28

, glaube ich , langläufig unter generativer KI

23:30

, also eine KI mit einem multifunktional

23:33

einsetzbaren Zweck . Grundsätzlich

23:36

geht die KI-Verordnung erst

23:39

mal vom Zweck her Wozu ist das entwickelt , was soll das

23:41

tun ? Aber die KI-Verordnung

23:43

bringt auch das mit , was du gesagt

23:46

hast was mache ich denn , wenn mir hinterher auffällt , dass da irgendwie

23:48

unerwünschte Ergebnisse rauskommen ? Also

23:51

, da sind ein ganzes Konklo-Marat

23:53

, und das ist , glaube ich , das , was viele Angst

23:55

vor der Überregulierung haben , an Überwachungspflichten

23:58

drin , an Dokumentationspflichten

24:01

, teilweise auch Pflichten , dass

24:03

du dein KI-Modell verstehen können musst , und

24:08

das wird , glaube ich , schon

24:11

. Gerade für Start-ups , die

24:13

in diesem Bereich der Hochrisiko-KI unterwegs

24:15

sind Wie gesagt , die ist teilweise

24:17

enumerativ auch auch gelistet gibt es einen Anex

24:19

3 zu dieser Verordnung . Da

24:23

steht da aufgezählt drin , was unter Hochrisiko-KI

24:26

beispielsweise zu fassen ist , no-transcript

24:31

, und für die gelten halt diese besonderen Pflichten

24:33

aufgrund dieses Risikos , das damit schwingt

24:35

. Was

24:38

diese Verordnung gerade nicht regeln möchte , ist

24:40

alles , was außerhalb

24:43

von der generativen KI das ist ja nochmal ein extra

24:45

Teil in der Verordnung alles , was unterhalb

24:47

dieser Hochrisikoschwelle ist , da

24:49

gibt es kaum irgendwelche Regelungen in

24:52

der KI-Verordnung dazu . Also ein bisschen Transparenz

24:54

, also ein bisschen Transparenzpflichten

24:56

im Sinne wenn jemand mit einem KI-Chatbot redet , muss

24:58

er wissen , dass er mit einem Chatbot redet . Es

25:01

ist augenfällig . Wenn das Ding schon KI-Chatbot

25:03

heißt , muss ich nicht nochmal reinschreiben Sie chatten

25:06

mit einem KI-Chatbot . Was

25:09

aber ganz spannend ist bei diesen ganzen Aufzählungen

25:13

von Hochrisikokai und

25:16

den damit einhergehenden Pflichten

25:18

gibt es teilweise

25:21

so genannte delegierte Rechtsakte an die

25:23

EU-Kommission beziehungsweise

25:25

auch Möglichkeiten

25:27

für die EU-Kommission , diese Liste zu erweitern

25:29

, ohne den AI-Act neu

25:31

zu erlassen zu können . Das macht

25:33

in einem technischen Umfeld , was sich

25:36

rasant entwickelt . Wenn wir jetzt vielleicht noch

25:38

gar nicht vorhersagen können , was für Systeme

25:40

ein hohes Risiko bergen , macht

25:42

das durchaus

25:45

Sinn . Dass so nicht jedes Mal , wenn man weiß , wie

25:47

so eine EU-Gesetz zustande kommt und wie lange sich das

25:49

ziehen kann , wenn nur genug Leute dagegen oder

25:51

dafür sind , macht das

25:53

durchaus Sinn . Ansonsten

25:57

ist es relativ technologieneutral formuliert

25:59

, das Ganze .

26:02

Das würde ja bedeuten , jetzt sind wir mal an . Ich bin

26:04

ein Startup , ich habe ein eigenes KI-Modell

26:06

. Das ist ein Chatbot , mit dem ich

26:08

irgendeinen Kundenservice anbieten

26:11

kann , und den User

26:14

auf der Website . Also , ich verkaufe meinen

26:16

KI-Bot an irgendein Kunden , der setzt das

26:19

auf der Website ein , und die

26:21

Nutzer kriegen irgendwie hin , dass der

26:23

Bot nicht nur das Nutzungserlebnis

26:26

fördert , sondern auch noch eine Anleitung

26:28

gibt , wie man eine Bombe baut .

26:31

So , wer haftet , hast

26:33

du den Salat . Also

26:37

lässt

26:40

sich doch nicht so richtig einfach beantworten

26:42

. Ehrlich gesagt , ich vermeide

26:44

den juristischen Satz . Es kommt drauf an , weil den hasse

26:46

ich wie die Pest . Was

26:49

der AI-Act auch enthält , ist praktisch

26:51

so eine Verkettung . Du

26:55

hast Pflichten von Unternehmen , die KI-Modelle

26:58

erstellen , also der

27:00

Hersteller des Systems , der

27:03

muss dem Nachgelagerten , der das Modell vielleicht

27:05

vertreibt oder einsetzt , die entsprechenden Informationen

27:08

zur Verfügung stellen , dass

27:11

das Ganze auch transparent

27:13

dargestellt werden kann , dass der weiß , was diese

27:15

KI quasi macht . Umgekehrt .

27:17

Das weiß ich nicht , das ist ja mein Problem .

27:21

Und das ist ganz ehrlich , das wird eines

27:23

der spannendsten auch im Datenschutzrecht außerhalb

27:25

der KI-Verordnung wird eines der spannendsten Themen

27:27

sein , KI

27:30

irgendwie erklärbar zu machen oder

27:32

sie zumindest halbwegs erklärbar

27:35

machen , weil da sind Dinge , die stehen da tatsächlich

27:37

auch drin , dass man das verstehen

27:39

können muss , was da passiert , Und

27:43

das ist , was auch . Da kannst du jetzt

27:45

gegebenenfalls , wenn du die jetzt schon damit

27:47

auseinandersetzt , kannst du gegebenenfalls

27:50

irgendwie dir auch wieder ein Wettbewerbsvorteil

27:52

sichern , Weil

27:55

ich glaube , die ganz großen Modelle , die

27:58

jetzt mit Trainingsdaten einmal das

28:00

ganze Internet also ich habe neulich einen

28:02

Kollegen gehört , der gesagt hat , eigentlich

28:05

ist das , was JetGBT gemacht hat beim

28:07

Trainieren der größte Kunstraub der Menschheitsgeschichte

28:09

, Dass

28:12

du mit Modellen , die wirklich auch Validentrainingsdaten

28:15

beruhen , wo du auch die

28:17

Quellen der Trainingsdaten kennst

28:20

, deutlich einen Vorteil

28:22

haben werden gegenüber denen , die einfach erstmal

28:24

alles eingespeist haben , ohne überhaupt da

28:27

irgendwie eine Qualitätssicherung zu machen oder irgendwas

28:29

. Ich glaube , was ich gehört habe , IBM

28:32

ist bei sowas relativ weit vorne

28:34

mit diesem Granitmodell , weil

28:38

die da mehrere Sicherungen eingebaut haben

28:40

vom Filter . Dann wird das rausgefiltert , dann wird

28:42

das rausgefiltert , dass

28:45

du hinterher zumindest zu einer halbwegs

28:47

akzeptablen Erklärbarkeit kommst bei

28:49

den Beinen . Und das wird , glaube ich , eine der größten Herausforderungen

28:52

, Dieser Transparenzgedanke

28:54

, der ja auch im Datenschutzrecht immer mit schwingt , Weil

28:57

es ist schön , wenn im Datenschutzrecht sagt ich lass jemand

29:00

eine Einwilligung unterschreiben für irgendwas , aber

29:02

wenn du eben dich erklären kannst , den Wasser einwilligt

29:04

, hast du schon wieder ein Problem . Und

29:06

das ist das ganz spannende , Anki , dass

29:08

wir jetzt eine Technologie haben , die

29:10

so schnell geworden ist , dass

29:13

halt , wie du vorhin gesagt hast , selbst manche Entwickler ihr eigenes

29:15

Modell nicht mehr erklären können .

29:17

Weil ich glaube , die eine Perspektive auf das

29:19

Ganze das ist interessant was du sagst , ist

29:22

das , was ich an Daten reinpacke in

29:24

so ein System , was ich dann vielleicht

29:27

noch filtern kann . Aber was

29:29

ja Out of Control ist , ist ja im

29:31

Grunde das Assoziative . Also was

29:33

macht das System mit dem , was gepromptet

29:35

wird , was eingegeben wird , was ich von dem System

29:37

will ? Also

29:40

wie verknüpft ist diese Information

29:43

völlig selbstständig , und

29:45

ich kann eben nicht kontrollieren . Also

29:47

Stand heute in allen

29:49

großen LLMs , also Large

29:51

Language Models , was da am Ende rauskommt

29:54

, und das sehe ich halt als riesen

29:58

Thema , also Imputs , das Outputs-Thema

30:00

.

30:00

Das ist das , was ich an

30:02

den anderen finde . Ich glaube , du

30:04

kannst der Sache auf . Du

30:07

brauchst halt aus meiner Sicht , damit du das halt wirklich vernünftig

30:09

hinbekommst Du brauchst ein Input-Filter . Du kannst

30:11

nicht beliebige Trainingsdaten machen , und

30:14

du wirst am Ende wahrscheinlich auch immer einen Output-Filter

30:16

haben brauchen , der dir das , was du sagst , das

30:18

, was ich nicht vorhersehen kann

30:21

, das im Modell passiert , in dieser

30:23

quasi Blackbox where

30:26

the magic happens . Da

30:29

brauchst du noch mal ein Output-Filter , um zu sagen okay

30:31

, es gibt folgende Dinge , die will ich ja auf keinen Fall

30:33

sehen , dass da irgendwie

30:35

rauskommt . Also das Thema des

30:38

Filterns nochmal der Antworten

30:40

und des Inputs , das

30:43

werde ich bekommen , das werde ich haben das Problem . Also

30:46

ist ja jetzt viel über den RIG

30:49

geschimpft worden , überregulierung etc . Ja

30:52

, europa neigt dazu , alles

30:55

sehr detailliert zu regulieren , und

30:59

der RIG ist

31:01

auch wirklich aus

31:03

meiner Sicht weit weg davon , perfekt zu sein

31:05

. Aber es ist , glaube ich

31:07

, gut , dass wir ihn jetzt haben und ihn bekommen werden

31:09

, weil du kannst , mit dem , was da drin steht , kannst

31:11

du arbeiten . Es gibt auch den Unternehmen

31:14

haltwegs eine Rechtssicherheit , um zu wissen

31:16

, was muss ich jetzt irgendwo erfüllen ? Da braucht es

31:20

auch ganz groß im RIG angelegt sind

31:22

so Sachen wie Managementsysteme . Ich muss

31:24

irgendwie das Risiko beherrschbar

31:26

machen , indem ich Risikomanagement betreibe

31:28

Klassische

31:30

Schadenshöhe mal Eintrittswahrscheinlichkeit

31:33

was kann da passieren , und wie kann ich das

31:35

beherrschen ? Dokumentationen

31:38

und so was . Also ja , das Ding bringt Verwaltungsaufwand

31:41

im Bereich der Hochrisiko-KI

31:43

und im Bereich der , wenn du

31:45

tatsächlich diese General Purpose-AI-Modelle

31:48

erstennst , also das , was bei uns jetzt die Large Language-Modelle

31:50

sind , aber

31:52

es ist erfreulich wenig komplett

31:54

verboten . Man

31:58

geht halt tatsächlich mit diesem Risiko-Gedanken

32:01

daran , um zu sagen okay , wir

32:03

sind uns alle einig , ki bringt Risik mit , die

32:06

müssen wir irgendwie für

32:09

Menschheit klingt jetzt so

32:11

groß , aber die müssen

32:13

wir halt für die Leute , die das benutzen , irgendwo eingrenzen

32:16

, diese Risiken , und

32:19

da wird es einfach ohne Regulierung auch nicht

32:22

funktionieren . Und nicht umsonst sind übrigens

32:24

gerade die Amerikaner dran , wie

32:27

ich zuletzt gelesen habe , dass

32:30

sie jetzt ein bisschen vom AI-Act auch

32:32

abschreiben , um

32:35

zu gucken , wo es dahin geht . Also , man kann sich

32:37

das Ganze so ein bisschen produktsicherheitsrechtlich

32:39

fast vorstellen , also wie bei einem Auto Da

32:42

müssen auch die Teilen in einem gewissen Prozess durchlaufen

32:44

, um hinreichend sicher zu sein , und

32:46

sowas bringt das jetzt für das Thema Hochrisiko-KI

32:48

.

32:49

Ja , also ganz ehrlich , ich bin sogar

32:51

stolz , dass das so schnell ging

32:53

, weil wir haben

32:56

ja , ich glaube in Brüssel bei der EU

32:58

2009 eingereicht

33:00

, dass es einen einheitlichen

33:03

USB-C oder USB gar nicht USB-C , den

33:05

gab es damals noch gar nicht aber USB-Standard gibt

33:07

, und in 2025 ist es jetzt

33:09

wirklich verpflichtend . Wir

33:11

wollen nicht ausrechnen , wie lange das gedauert wird . Also

33:14

von daher das jetzt

33:16

nur so als kleiner Seitenhieb . Also

33:19

ich finde es echt cool , dass wir das so schnell

33:22

auf die Bahn gebracht haben , einfach auch deshalb

33:24

, weil , wenn man sich ein bisschen mit dem

33:26

Thema KI beschäftigt also ein bisschen

33:28

meine ich mit wenn man so wirklich Einblicke

33:31

hat in das , was damit

33:33

alles möglich ist Ich hatte hier im Podcast

33:36

auch schon jemanden von

33:38

der Bundeswehr sitzen Also

33:40

es ist gar nicht vorstellbar

33:42

, wenn man nur ChatGPT kennt , was

33:44

damit noch so alles geht . Das

33:47

heißt , wir müssen unbedingt einen Anfang machen

33:49

, weil natürlich auch das Thema Cyber Security

33:51

ein großes Thema . Also wir profitieren

33:53

ja nicht nur , weil es uns effizienter macht , sondern

33:55

es macht ja auch die Hacker effizienter . Ich

33:57

habe gelesen weniger als 10 Dollar

34:00

kostet einen Angriff auf einer

34:02

Website mit

34:04

KI . Also das ist überhaupt

34:06

keine Zeitkomponente , ist wesentlich

34:09

schneller geht das heute .

34:10

Das war es schon immer in der IT Security . Also

34:12

war schon immer so ein Rattenrennen Wer

34:15

ist schneller ? die Angreifer sind meistens schneller

34:17

, weil der Verteidiger nur reagiert

34:19

, und das fördert KI definitiv . Nochmal

34:21

, weil

34:24

du jetzt von der Bundeswehr

34:26

jemanden erwähnt hast das

34:28

ist übrigens einer der großen Kritikpunkte der

34:31

KI-Verordnung , wobei

34:33

da halt die geopolitische Lage auch mit rein

34:35

spielt . Das hat Themen wie Verteidigung

34:37

und öffentliche Gewalt

34:39

weitestgehend

34:41

ausgenommen sind . Also das

34:44

müssen die Länder selbst regulieren , ist auch immer so ein bisschen

34:46

die Frage , wie weit die EU regulieren darf

34:49

in gewissen Bereichen . Also

34:53

je nachdem , wie man

34:55

das Weltgeschehen einschätzt , ist das jetzt richtig

34:58

so oder falsch . Aber es ist eine der Kritikpunkte

35:01

an der KI-Verordnung , dass das eben ausgenommen

35:03

ist .

35:05

Ja , um mal ein ganz konkretes Beispiel zu

35:07

nennen es

35:10

geht ja unter anderem darum , dass

35:12

Menschen und

35:15

selbst und deren Grundrechte

35:18

nicht gefährdet werden laut

35:20

AI Act . So , und da

35:22

bin ich im militärischen Jahr gleich

35:24

ganz weit vorne , wenn ich anfange

35:26

, drohnen als Kamikaze Flugobjekte

35:29

auf irgendwas drauffallen zu lassen , wo Menschen drin sitzen

35:32

, oder per

35:34

Schwarmintelligenz da

35:36

noch ein paar mehr Aktionen fahren kann

35:38

. Also von dem her wäre das gar nicht

35:40

. Das muss das Militär , glaube ich , in

35:42

einem eigenen Act , militär

35:46

AI Act oder sowas regeln .

35:48

Also , das würde ja gar nicht passieren . Ja

35:50

, es ist , glaube ich

35:52

, aktuell in der Situation , wo ja irgendwie Abschreckungen

35:54

wieder populär geworden ist . Aber da kommen wir

35:56

jetzt zu weit ins politische , lass uns zum Juristischen

35:59

zurückgenommen .

36:00

Ja , ich finde es ganz interessant

36:03

, weil sagen wir mal , es gibt ja immer

36:05

die White-Hacker und

36:07

die Black-Hacker . Wir

36:09

versuchen , uns da natürlich ethischen Grundsätzen

36:12

zu bedienen und uns daran zu

36:14

halten , was voll wichtig ist

36:16

, gerade wenn ich aus meiner Kinder denke und dergleichen wenn man

36:18

auf der anderen Seite reguliert

36:22

, halt auf der anderen Seite auf der schwarzen Seite

36:25

niemand , aber

36:27

es ist , finde ich , total wichtig , genau

36:29

das per Gesetz einfach

36:31

auch in die entsprechenden Fahrwasser zu bringen . Lass

36:34

uns mal und ich habe

36:36

gesagt , wir schaffen heute mal so ein paar Grundlagen

36:38

, dass man es einigermaßen einordnen kann

36:40

Beim nächsten Mal machen wir einen Deep Dive zu einem oder

36:42

anderen Thema . Also das schon als kleine Ankündigung

36:44

. Lass uns mal über die Wettbewerbsfähigkeit

36:47

sprechen , weil das finde ich ein ganz spannender Punkt , weil

36:49

die Unternehmen , die

36:51

wir haben in Deutschland , auch in unserer Region

36:53

, natürlich einen riesen Vorteil haben , wenn sie das

36:55

mit ihrem Business-Modell verbinden , also ein eigenes

36:58

KI-Modell mit ihrem Geschäftsmodell

37:00

verbinden , um

37:02

datenschutzkonform besondere

37:05

Leistungen anzubieten . Wie siehst

37:07

du aus der Datenschutzperspektive

37:10

betrachtet diesen Wettbewerbsforder

37:12

im globalen Geschehen ?

37:15

Ich glaube , das zwei Ansatzpunkte . Du hast einmal das

37:17

Thema . Ich glaube

37:19

, ki ist was sehr sensibles , auch für die Menschen

37:21

. Es geht ja eher immer so richtig

37:24

in die Richtung . Man denkt ja in

37:26

die Richtung persönlicher Assistent . Und wie kann

37:28

uns das künftig im Alltag und ich

37:30

teile mit einem persönlichen Assistent nichts , wo

37:32

ich Angst haben muss , dass das

37:34

hinter 7000 anderen Leuten irgendwie wieder

37:36

ausgespuckt wird Das ist einfach so der

37:38

Vertrauensansatz , und vielleicht habe

37:40

ich da einfach den Glauben in die Menschheit trotz Facebook

37:42

und Google noch nicht verloren

37:45

. Das ist aber einfach nicht , dass , wenn der Mensch

37:47

die Wahl hat zu einer

37:49

vernünftigen Alternative

37:52

, wenn er die Wahl hat , ich kann das machen , ohne dass ich

37:54

mich gedanklich nackt ausziehen

37:57

muss , oder mit bin

37:59

ich immer noch da . An sich wird sich der Mensch dafür entscheiden , doch

38:01

seine Privatsphäre irgendwo zu behalten . Und

38:04

das ist ein Ansatz , glaube ich , der lohnt

38:06

, dass man den verfolgt , dass

38:09

man den Leuten zeigt passt auf , bei

38:12

uns kriegst du was , aber du kriegst es sicher . Und

38:14

jetzt nicht nur im Hinblick vielleicht auf Datenschutz

38:17

, sondern es ist auch IT sicher . Es

38:22

ist vielleicht das , was wir über Filtervorein gesagt haben

38:24

. Da ist nicht alles reingeflossen . Das

38:26

ist , was damit schaffst du , glaube ich , vertrauen , und

38:28

je mehr die Leute diesem ganzen Thema vertrauen

38:31

. Ich habe neulich weiß nicht , war die Umfrage

38:33

von dir vertrauen sie der KI vollständig ? die

38:35

war , glaube ich , von dir , und

38:38

ich glaube , wenn du dann den ganz großen Wurf irgendwann

38:41

hinkriegen willst , dann musst du die Leute dazu bringen

38:43

, dass sie da Vertrauen haben , und

38:45

das kriegst du nur mit nem guten Konzept

38:47

in Richtung Datenschutz und Sicherheit hin . Das

38:50

ist der eine Aspekt . Jetzt

38:52

wird immer geschimpft über die EU . Wir sind ja

38:54

im globalen Geschehen

38:57

dadurch gar nicht wettbewebsfähig . Jetzt lassen

38:59

wir mal die bestrebungen , die US-amerikanischen

39:01

Bestrebungen weg , da auch irgendwas zu machen . Das

39:04

ist auf der Weltebene marktes

39:08

Sein . Also das muss man ganz

39:11

klar sagen . Wenn ich mich als Europäer an Regeln

39:13

halten muss und möchte , was in den USA verkaufen

39:15

an jemanden , der sich dort nicht an Regeln halten muss

39:17

, dann habe ich dann Wettbewerbsnachteil

39:20

erst mal . Wie

39:22

gesagt kommt dann auch auf die Mentalität der

39:24

Bevölkerung an , ob ich diesen Datenschutz-Sicherheitsgedanken

39:27

da effektiv spielen kann . Wenn

39:30

ich mir jetzt aber Europa als wo

39:33

ja erst mal die meisten Start-ups denken , wenn

39:35

ich mir Europa jetzt vorstelle als Wettbewerbsmarkt

39:37

ich

39:40

stelle mir manchmal die Frage , was würde denn passieren

39:42

, wenn wir keinen regulierten Markt hätten ? Könnten

39:45

wir gegen die großen Konzerne , die ja trotzdem

39:47

dem auch unterlegen , könnten wir da überhaupt bestehen

39:50

, oder würden die uns einfach überrollen , wenn

39:53

die sich genauso wenig an Regularen

39:55

halten müssten wie bei

39:58

sich zu Hause in Ländern , wo

40:01

halt das Thema nicht so gehandhabt

40:03

wird . Es hat auch

40:05

eine gewisse Schutzfunktion , muss man an

40:07

der Stelle sagen , und

40:10

ich glaube

40:13

, das wird manchmal zu wenig gesehen

40:15

, aber

40:18

nichtsdestotrotz für mich der Ansatzpunkt

40:21

tatsächlich Vertrauen schaffen in

40:23

sowas ist immer gut . Du

40:25

hast also ein kurzes Beispiel aus meinem

40:27

Kanzleialltag Du

40:31

bist als Jurist . Wenn du jetzt als Rechtsanwalt

40:33

tätig bist , hast du ja nicht nur hier irgendwie

40:35

die normalen Datenschutzrechte , du musst auch Berufsgeheimnisse

40:38

, waren und solche Dinge . Und

40:40

da gibt es gerade in Deutschland relativ

40:42

viele Berufsgruppen , die auch irgendwie unter Berufsgeheimnisse

40:45

oder sowas fallen . Das heißt , du kannst

40:47

nicht einfach hergehen

40:50

und sagen , ich berate jetzt meine Mandanten

40:52

online mit einem Tool , wo ich weiß

40:54

, da hört Gott und die Welt mit , sondern

40:57

, du brauchst etwas , was hinreichend sicher

41:00

ist , dass du diesen Berufsgeheimnis irgendwie herwerten

41:02

kannst . Und

41:04

das hast du in ganz , ganz vielen

41:06

Bereichen . Und wenn die Leute nicht auf Datenschutz

41:09

hören wollen an der Stelle

41:11

, dann müssen

41:13

sie mal an ihre Unternehmensdaten einfach denken , weil

41:17

die willst du ja auch nicht offen irgendwo

41:19

preisgeben . Das ist das , wo wir eingangs gesagt haben

41:22

, wenn wir jetzt hier JETT-TBT in der offenen Version

41:24

verwenden , und ich gebe da sensible

41:26

Unternehmensdaten rein . Das Protokoll

41:28

der letzten XY-Sitzung Gesellschaftsverfassamlung

41:32

, ja , gesellschaftsverfassamlung . Dann

41:34

hast du im Worst Case einer , der irgendwie durch einen

41:36

Prompt blöderweise da drüber steubert , und

41:38

der kriegt das vielleicht da wieder raus . Dass

41:43

, wenn den Leuten bewusst ist , haben

41:46

wir hier , glaube ich , einen echten Wettbewerbsvorteil

41:48

, da ins Rennen zu

41:50

gehen und sagen Leute , ihr bekommt das bei uns auch , aber

41:52

ihr bekommt das auf eine Art und Weise , dass

41:55

ihr nicht nur gesetzlichen Anforderungen genügt

41:57

, sondern dass ihr vielleicht auch nachts ein bisschen ruhiger

41:59

schlafen könnt .

42:01

Ja , und es gibt

42:03

ja viele Beispiele . du hast mit Samsung ja

42:05

schon ins Aufgeführt , wo

42:07

das ein Problem

42:09

ist . ja , aber wo das natürlich auch langfristig

42:12

, gerade wenn sie das Ganze weiter so entwickelt

42:14

und der Zugriff über andere KI-Systeme

42:17

auf entsprechende Daten , das

42:20

ja auch schnell dann wirklich also

42:23

unternehmerischen Disaster

42:26

sein kann . Ja , also vielleicht auch gerade

42:28

so bei kleineren mittleren Unternehmen

42:31

. also willst du keine

42:33

Klage haben zum Thema Datenschutz

42:35

, weil irgendjemand rausgefunden hat , dass deine Daten

42:38

eigentlich offen liegen ? Ja , Interessant

42:40

finde ich auch wie bereit will ich ja dann

42:42

doch das Ganze an Informationen

42:45

geteilt wird . Also ich

42:47

bin erstaunt , dass wir

42:49

so in den vergangenen Jahren immer wieder

42:51

Firewalls

42:53

gebaut haben , und wir wollten

42:55

das Ganze sicher machen . Aber

42:58

seit dem KI gibt es so ein

43:00

Hype , das gar nicht darüber nachgedacht wird , inwieweit

43:02

vielleicht Chatchi-BT für mein Unternehmen

43:05

gänzlich ungeeignet ist . Ja , jetzt kann

43:07

ich natürlich sagen , ich bin jetzt ein Schreiner , ja , jetzt

43:09

für mich nicht so wahnsinnig , unternehmensgeheimnisse

43:11

schützenswert oder so , aber das

43:14

Thema Datenschutz letztendlich schon .

43:16

Aber das ist ja eine Geschichte , die kannst

43:18

du ja risikoorientiert betrachten

43:20

. Ja Also , dass

43:22

du sagst okay , ich

43:24

mache nur Folgendes damit , und dann

43:26

mag das im Einzelfall okay sein

43:28

. Aber ich würde jeden davon abraten

43:31

, jetzt in solche aktuell offenen Systeme

43:33

irgendwie den halben Kundenbestand

43:35

irgendwie da reinzuspielen , weil

43:37

das geht einfach nur nach hinten los .

43:41

Ich glaube , wer hat noch nicht mal das . Also so viel

43:43

traue ich den Leuten schon zu . Aber jetzt

43:45

nimm mal einen Praktikanten

43:47

Ja , der hat gerade neu angefangen

43:50

, kennt sich noch nicht mit den ganzen Gegebenheiten

43:52

aus , und der soll mal schnell was machen . Ja

43:54

, schreibt mal das schnell zusammen , fasst mal das hier schnell

43:56

zusammen , recherchiert das mal ganz schnell , was

43:59

wir für unsere Patentanmeldung brauchen , oder

44:01

so weißt du , wie schnell landen die

44:03

Daten dann im Netz . Ich habe mit einem Unternehmen mal gesprochen

44:05

. Ich habe gesagt wie regelten ihr das ? Ihr setzt

44:08

Chabrot-BT ein , wie macht ihr das

44:10

? Wie stellt ihr sicher , dass keine Daten

44:12

das Unternehmen verlassen ? Der einzige

44:14

Antwort war und das machen , glaube ich , viele Unternehmen

44:17

so dass sie einfach sagen wir bieten

44:19

also Weiterbildung an , wir sensibilisieren

44:22

die Leute darauf , aber eine echte Kontrolle am

44:24

Ende des Tages haben wir nicht .

44:26

Ja , und also ist es auch übrigens der

44:29

Grund , warum ich glaube , dass es bei

44:32

großen Unternehmen , die die Möglichkeiten haben

44:34

, langfristig einfach wahrscheinlich

44:36

auf du nimmst dir ein Teil

44:38

und trainierst das mit deinen Daten in einer

44:40

Umgebung , die du beherrschen kannst dass

44:44

es darauf bei vielen Dingen hinauslaufen

44:46

wird , weil das einfach die Variante

44:49

ist , die du am leichtesten beherrschen

44:51

kannst , die du transparent gegebenenfalls auch darstellen

44:53

kannst , weil du sowohl die

44:55

Hand auf den Input , gegebenenfalls

44:58

dann durch Filtertechniken auch auf den Output hast

45:00

. Und das ist das

45:02

, was ich gesagt habe . Man

45:05

muss halt einfach gucken , dass

45:07

man diese Wahnsinnstechnologie Irgendwo

45:12

in Bahnen lenke , die sowohl

45:15

das positive da rausholen

45:17

, was ja . Also brauchen wir nicht drüber reden . Ich mein , du hast

45:19

mich jetzt kennen gelernt , ich bin auch so kleiner technik Technikfreund

45:22

, anders könnte ich mein Job gar nicht machen . Das ist das tolle

45:24

an meinem beruf

45:27

, dass es Wahnsinn , was da geht . Auch

45:29

in mir erwacht da der spieltrieb , aber

45:31

den muss ich halt ein bisschen kanalisieren und sagen

45:33

, ich bring den jetzt in Bahnen , die

45:36

weder mich noch mein Unternehmen noch andere

45:38

irgendwie gefährden . Und

45:41

das Schöne ist ja , es geht

45:43

also

45:45

vielleicht nicht . Wie gesagt

45:47

, die tache mit der transparent , da werden wir noch ein bisschen erwirkt , noch

45:49

ein bisschen wasser den Bach runter fließen . Wir

45:51

müssen mal so richtig gucken , wie kriege

45:54

ich denn so ein modell transparent . Aber

45:56

auch das wird , bin ich überzeugt davon , eines

45:58

tages zumindest so gelingen

46:00

, dass du dein nutzer , der hinterher

46:02

das zeug verwendet , sagen kannst

46:04

du pass auf , okay , das und das ist das

46:07

, was da , das ist die magic

46:09

quasi . Du

46:12

brauchst keine amts haben , dass da jetzt irgendwas irgendwie

46:14

den äther verschwindet ja

46:19

, auch noch mal .

46:21

Vielleicht noch mal so ein seiten thema

46:23

. Was ich gerne noch aufmachen wollen würde

46:25

, ist nehmen wir zum beispiel das thema wahlmanipulationen

46:28

. Ja , also , wir haben ja gelernt

46:30

. Nehmen wir mal das trump beispiel

46:33

, wie er auch offen damit ist . Jetzt

46:35

mich erstaunt , dass auch da keine große

46:38

widerspruchswelle oder empörung

46:41

stattgefunden werden , das gesagt wurde

46:43

. Wir haben im wahlkampf tatsächlich auf

46:45

in intelligente technologien

46:48

gesetzt , um einem

46:50

wähler , der trump ablehnt

46:52

, dort zu begegnen

46:54

, wo es ihm am meisten weh tut

46:57

, um wahlversprechen zu machen , dass der

46:59

seine meinung ändert oder das häckchen setzt , weil

47:01

kein anderer diesen einen

47:03

punkt , der ihm so wichtig ist , benennt

47:05

. Ja also , und

47:08

das ganz offen kommuniziert

47:12

wird . Also mich erstaunt , dass und

47:14

je besser , damit habe ich ja maximalen

47:17

einfluss auf eine gesellschaft , ja , je besser

47:19

ich diese technologien

47:22

und tools orchestrieren kann . Ja , und

47:24

beherrsche oder sie überhaupt einsetzen

47:26

. Ja , ist erstaunlich

47:29

. Habe letztens eine grafik gesehen , das war ganz interessant

47:31

. Alle parteien in deutschland , inklusive afd

47:33

, wie engagiert sind die im bereich digitale

47:36

kommunikation ? ja , mit

47:38

weitem abstand die afd vorne

47:41

.

47:42

Also , die bedienen halt einfach die sozialen nizwecke ja

47:45

, und wenn du dann halt das , was

47:48

k i jetzt ermöglicht , in diese richtung ist

47:50

immer schon ein bisschen bei diesen manipulativen

47:52

techniken , was

47:55

dann vielleicht irgendwo verboten

47:58

ist , dann auch der k i verordnung

48:00

. Aber du brauchst ja also

48:03

das , was du vorhin gesagt hast die leute

48:05

, die irgendwas anstellen wollen , die

48:07

halten sicher an keine regeln . Und

48:10

wie schnell ist , wenn du so ein latsch

48:12

lengwitz modell online irgendwie open source

48:14

anbietest , wie schnell ist da ein filter , den ich mal

48:16

eingebaut habe , wieder ausgebaut ? das

48:20

wird , es wird total spannend . Und gerade an der

48:22

sache , die ja auch so in richtung bisschen deep

48:25

fake geht , meinungsmanipulation

48:28

durch dinge , die vielleicht gar nicht so sinnwiese erscheinen

48:30

auf den ersten blick . Also

48:33

da kommt zu meinem zwei

48:35

herzen der des technikfreunds , des

48:37

juristen , noch das , das vaters dazu , wo

48:39

ich mich frage ok , wie schaut die welt vielleicht

48:42

mal aus , wo meine kinder dann aufwachsen oder

48:44

in der sie dann mal leben ? weil

48:46

ja , und das

48:48

ist , das ist für mich bei , bei aller liebe zur

48:51

k i , ich glaube , was wir nie verleeren dürfen

48:53

, ist , selber kritisch zu denken und

48:56

da sind wir spitzenreiter .

48:57

Auch da wieder eine statistik die

49:00

skeptiker in deutschland sind

49:03

bei , glaube ich

49:05

, 40 , 45 prozent

49:07

, ich glaube , die gegner

49:09

bei 19 prozent , und bei den

49:11

skeptikern sind , glaube ich

49:13

, 47 prozent , von denen wiederum über 50

49:17

oder 55 Jahre . Also

49:19

wir haben , wir als deutsche

49:21

so eine grundskepsis , deswegen sind wir

49:23

nicht so wahnsinnig schnell unterwegs , die uns vielleicht

49:25

aber auch zum vorteil wird . Ja , das muss

49:27

ja nicht negativ sein . Wir

49:30

sind vielleicht jetzt nicht die wahnsinnig schnellsten

49:32

, aber wenn ich so an unsere kinder denke , dann sind

49:34

wir , die die wege jetzt ebnen

49:37

und die die digitalen infrastrukturen

49:40

sicher machen , weil unsere

49:42

kinder werden mit k i system so

49:44

normal umgehen , wie wir unser handy in die

49:46

tasche stecken . Ja , du hast vorhin gesagt

49:49

, es ist immer vertrauen , ist voll

49:51

wichtig , dass wir

49:53

dieses , dieses fast building

49:55

hinkriegen , weil wir oder unsere kinder

49:58

mit den mit den k i s oder mit den eis

50:00

assistenten dann einfach auch

50:02

ganz normal umgehen und sagen okay , wenn der das

50:04

mir so sagt , dann wird es schon zu sein , einfach

50:07

nicht mehr hinterfragt werden , dann irgendwann . Das

50:11

ist so , das ist so noch sehr

50:14

cool . Gibt es ein buch , was du empfehlen kannst

50:16

? kann man irgendwas zu dem thema lesen

50:19

? oder

50:21

also zum thema

50:23

e act ?

50:24

gibt es bisher eigentlich nur

50:26

nur aufsätze , weil das thema ist so neu

50:28

, und es ist ja noch . Es ist

50:30

so , dass die fassung , die dann veröffentlicht

50:33

wird , die ist auch von der nummerierung her noch ganz anders

50:36

, die wird dann noch mal glatt gezogen , ist , wird

50:38

noch alles hübsch gemacht . Also da gibt es jetzt

50:40

noch also

50:43

keine publik , kein , kein buch . Dass

50:45

ich jetzt kennen würde , muss ich dazu

50:47

sagen , vielleicht war einer so schnell , und ich habe es nur nicht

50:49

mitgekriegt oder

50:51

zum thema etik oder so . Also

50:56

habe ich jetzt ehrlich gesagt , habe ich kein , habe ich

50:58

kein muss entschreiben , das

51:01

erklärst du meiner frau keins

51:07

, dass ich jetzt ehrlich gesagt gelesen hätte , was

51:09

ich jedem empfehlen kann

51:12

, sich auf jeden fall

51:14

mit der kf i verordnung zu beschäftigen , auch jetzt

51:16

schon , auch was datenschutz

51:19

und kian geht . Und da muss

51:21

ich auch mal , auch

51:23

wenn es die kontrollierende seite ist , da muss ich die bayerische

51:26

aufsicht mal oben datenschutzaufsicht . Die

51:29

hat ganz gute zusammenfassungen , verständlich

51:31

auch für startups und klein unternehmen

51:33

rausgebracht

51:36

, und die findest , findet man auf den ihrer webseite

51:38

. Die

51:42

stellen schimpft sich landesamt für datenschutzaufsicht

51:44

, und da

51:47

sind checklisten drauf , da sind flier

51:50

drauf , die das thema aufgreifen . Also die

51:52

waren da jetzt sehr rürig , um

51:54

zu sagen schaut her , leute , das müsst ihr

51:56

machen , um das beherrscht zu machen . Und auch

51:58

die und deswegen lob

52:00

ich das an der stelle auch mal gehen nicht

52:02

mit den gehen , nicht mit dem ansatz ran

52:04

, bleibt uns bloß weg mit dem teufelszeug

52:06

, sondern die gehen auch

52:08

damit ran und sagen wir machen die , lasst , lass uns die

52:11

riesigen beherrschbar machen und dann

52:13

das wirklich gute daraus ziehen und

52:15

irgendwie in eine schöne neue , bunte

52:17

welt aufbrechen sehr

52:20

cool .

52:22

Wie hältst du dich produktiv ? das ist mir

52:24

immer eine ganz spannende frage . Gibt es irgendwelche

52:27

tools , die du verwendest , um

52:29

deinen arbeitsalltag

52:31

zu hacken

52:34

? einfach schneller zu sein , effizienter

52:36

zu sein , mehr zahlt für die kinder zu haben ?

52:39

also muss man sagen

52:41

, gibt es mittlerweile für

52:43

, gerade für also

52:45

habe jetzt keine große anwaltskanzlei

52:48

, weil die besteht aus meiner person gibt

52:51

es mittlerweile ganz coole dinge . Im bereich

52:53

legal tech geht auch so ein

52:55

bisschen in richtung k i , die anwalts

52:59

tools , die es am mark gibt , die werden immer besser

53:01

in sachen selbstanlage , oder es

53:04

gibt mittlerweile auch auch tatsächlich

53:06

datenschutz konforme

53:08

chatbots , die jetzt sicherlich

53:10

nicht die qualität eines eines

53:13

jet gpt es vielleicht erreichen , aber die

53:15

dir beispielsweise bei der neuanlage

53:17

von , von akten , bei der mandatsaufnahme

53:19

und sowas wirklich

53:21

gute dienste leisten . Was

53:26

auch cool ist und ich nie wieder missen möchte

53:28

, sind , sind kein

53:30

typisches k i tool , aber sind tools , mit denen du

53:32

online verträge unterschreiben kannst , etc

53:34

. Also du bekommst

53:36

es heute . Bis auf wenige ausnahmen , die jetzt

53:38

irgendwie noch im in

53:40

der anwaltsordnung oder im

53:43

rechtsberatungsgesetz irgendwie verankert sind , bis

53:45

auf ganz wenige dinge kommst du heute als anwalt

53:48

tatsächlich papier los durch

53:51

die welt und du kannst dich auch online

53:53

mit mandanten irgendwie austauschen . Das

53:55

ist schon ganz cool . Also , wenn ich so

53:59

nach meinem studium vergleichen , also ich fertig war

54:01

, war das noch ne . Also es war eine komplett andere

54:03

welt eigentlich fast aber

54:06

wie sicher ist dein job ? also

54:08

sagen ich

54:16

weiß ich nicht , ob das schon , ob ich

54:18

es tatsächlich schon merke . Also war ja vorher

54:20

mit google auch so . Na also , ich

54:23

glaube , bei rechtsanwältern und ärzten war das gleich

54:26

. Ich habe das symptomal gegoogelt , ich habe mein rechtsfall

54:28

mal gegoogelt . Also

54:30

bei den gemischten ergebnissen

54:32

, die heute noch rauskommen , wenn du fiktive fälle

54:35

da eingibst , glaube

54:37

ich , dass wir in naher zukunft noch

54:40

unseren job erhalten werden , und

54:42

ich glaube auch nicht , dass wir gedanklich schon soweit

54:45

sind , dass du die k i recht

54:47

sprechen lassen willst ne

54:51

, weil das wäre genau das gleiche .

54:52

Wie an der waffe muss am ende ein

54:55

menschenentscheidung treffen . Also das glaube ich schon . Ich

54:57

glaube , nehmen

55:00

wir mal die ganzen recherchen für präsidentsfälle

55:02

oder solche sachen , also dieses ganze doing

55:04

, um zu einem ergebnis zu kommen . Das ist eine

55:07

strategie wird .

55:09

Es wird immer besser , es wird

55:11

immer besser . Du musst es halt dir aktuell tatsächlich

55:13

auch auf , auf auf grund , dinge

55:15

wie anwaltsgeheimnis etc . Du musst es dir halt einfach

55:18

angucken . Ich kann jetzt nicht altirecht

55:20

beraten und dann irgendwas nehmen , wo

55:22

meine Daten offen wie ein scheunentor irgendwo

55:24

liegen aber

55:27

es gibt am markt tatsächlich mittlerweile wirklich

55:29

wirklich ganz vernünftige

55:32

dinge , und was ich schon glaube weil du mich nach der

55:34

sicherheit meines jobs gefragt hast

55:36

ich glaube , dass juristen

55:39

, die sich mit k i beschäftigen , euren

55:42

deutlichen wettbewerbsvorteil haben werden

55:45

gegenüber den juristen , die sich nicht

55:47

mit k i beschäftigen .

55:48

Ja , auf jeden fall , weil

55:50

euch brauchen wir jetzt in zukunft

55:53

, also zumindest in unserer branche ist .

55:55

Das ist ja das , das ist ja das schöne an it

55:57

recht und datenschutz , das geht ja erstmal nicht weg

55:59

. Das ist fast noch besser als erbrecht

56:01

. Erbrecht gestorben wird immer .

56:03

Aber die technik geht auch immer weiter

56:05

. Ja , das geht auch nicht

56:07

mehr weg . Das stimmt , es hat mir

56:09

sehr viel Spaß gemacht man sieht eine zeit

56:11

, die ist verflogen . Wir

56:14

werden uns dem ein oder anderen thema noch mal

56:16

nähern und vielleicht sehr , sehr gern aufruf an die hörerschaft

56:18

hier , an euch da draußen

56:21

wenn euch ein thema wichtig ist , schreibt

56:23

uns auf sämtlichen kanälen

56:25

sind wir erreichbar . Was euch interessiert

56:28

, zu welchem thema wir den nikolai einfach nochmal einladen

56:30

sollen . Und dann , ach

56:33

so , vielleicht noch den hinweis wir konnten

56:35

nicht als dozent gewinnen für die

56:37

für den after work campus ja , da freue

56:39

ich mich auch schon sehr darauf , gründerzentrum

56:41

ausrichten . Ich weiß nicht , glaube , die

56:44

podcast folge kommt danach raus , oder so

56:46

mal gucken wir , was teilen können . Ja , wenn

56:49

nicht unbedingt auf unserer plattform mit dem nikolai

56:51

kontakt aufnehmen unter coventureai

56:54

, da findet man dich aber auch bei linken und

56:56

überall sonst den auch im zweifel in

56:58

den schornhuts dieser podcast folge . Die

57:01

nikolai . Letzte frage an dich und damit das

57:03

schlusswort für dich und für diesen podcast

57:05

stell dir vor , wir haben ein

57:07

plakat , und du darfst

57:10

irgendetwas darauf schreiben

57:12

, und dieses plakat kann jeder auf der welt sehen

57:14

. So riesig ist das . Was würdest du drauf

57:16

schreiben ?

57:24

ich glaube , ich würde drauf schraben . Habt keine angst , das

57:29

passt wunderbar zu ki , aber auch

57:31

zu allen anderen dängen . Irgendwie

57:35

haben wir bis jetzt immer alles hingekriegt

57:37

. Ich bin der festen überzeugung , wir kriegen es auch weiterhin

57:40

irgendwie gebacken , und

57:43

ich glaube , mit dieser positive einstellung solltest

57:45

du an dinge rangehen . Und

57:47

angst ist nie ein guter berater . Nur weil ich mich

57:49

vor irgendwas fürchte , ist sein zu lassen , weiß ich

57:52

nicht

57:54

. Gibt es viele gute andere gründesachen nicht

57:56

zu tun ? aber angst ist nie ein guter

57:58

berater das

58:00

lassen wir genauso stehen .

58:01

Danke , nikolai , für deine Zeit , herzlichen

58:04

Dank .

Rate

Join Podchaser to...

  • Rate podcasts and episodes
  • Follow podcasts and creators
  • Create podcast and episode lists
  • & much more

Episode Tags

Do you host or manage this podcast?
Claim and edit this page to your liking.
,

Unlock more with Podchaser Pro

  • Audience Insights
  • Contact Information
  • Demographics
  • Charts
  • Sponsor History
  • and More!
Pro Features