Episode Transcript
Transcripts are displayed as originally observed. Some content, including advertisements may have changed.
Use Ctrl + F to search
0:00
Dieser Podcast wird präsentiert
0:02
von Genius Alliance
0:04
.
0:06
Das ist einfach so der Vertrauensansatz , und
0:08
vielleicht habe ich da einfach den Glauben in die Menschheit trotz
0:11
Facebook und Google noch
0:13
nicht verloren . Ich glaube einfach nicht , dass
0:15
, wenn der Mensch die Wahl hat zu
0:17
einer vernünftigen Alternative
0:20
, wenn er die Wahl hat , ich kann
0:22
das machen , ohne dass ich mich gedanklich
0:25
nackt ausziehen muss , oder mit Bin
0:28
ich immer noch der Ansicht wird sich der Mensch dafür entscheiden , seine
0:30
Privatsphäre irgendwo zu behalten . Und
0:33
das ist ein Ansatz , der lohnt
0:35
, dass man den verfolgt , dass
0:38
man den Leuten zeigt passt auf , bei
0:40
uns kriegst du was , aber du kriegst es sicher , und
0:43
jetzt nicht nur im Hinblick auf Datenschutz
0:45
, sondern es ist auch IT sicher .
0:49
Du hörst den Genius Alliance
0:52
Podcast . Du
0:55
bist Unternehmer und möchtest die
0:57
nächste Evolutionsstufe der Digitalisierung
0:59
erreichen ? dann starte jetzt und
1:02
gewinne neue Kunden im Online-Dschungel
1:04
Mit
1:09
starken Interviews , wertvollen
1:12
Erfolgsstrategien und hochspezialisierten
1:14
Digitalexperten . Der
1:17
Genius Alliance Podcast
1:19
von und mit Founder und
1:21
CEO Norman Müller
1:24
.
1:26
Es ist wieder Zeit für eine neue Folge hier
1:28
im Genius Alliance Podcast . Mein Name ist Norman
1:30
Müller , und heute habe ich Nikolaj
1:32
Greiner zum Interview eingeladen . Er
1:35
ist ein Top-Experte , denn er beschäftigt
1:37
sich seit 20 Jahren mit IT-Recht
1:40
und Datenschutz . Hallo , nikolaj .
1:42
Hallo Norman . danke für die Einladung , Sehr
1:44
gerne .
1:46
Nikolaj , wir wollen heute über
1:48
zwei Themenbereiche sprechen , die unmittelbar
1:51
miteinander zu tun haben , denn
1:53
wir werden uns heute mit dem Thema natürlich
1:56
KI beschäftigen , ganz besondere in
1:58
Verbindung mit dem Datenschutz . Also , welche Wettbewerbsvorteile
2:01
, welche Chancen ergeben sich hier für
2:03
uns als Wirtschaftsstandort Kuhburg
2:06
, deutschland , eu
2:09
? Und wir werden auch natürlich hinzuziehen
2:11
in die neue KI-Verordnung , wenn mal ein
2:14
paar Grundlagen heute in diesem
2:16
Interview gemeinsam schaffen , damit
2:18
auch alle da draußen mitreden
2:20
können . Wir werden das heute versuchen
2:22
. Man sagt
2:24
, ja , die Juristerei ist so ein bisschen trocken
2:27
, ich habe dich kennengelernt , und alles andere
2:29
oder diese
2:31
Themen haben sich überhaupt nicht bewahrheitet . Deswegen
2:34
freue ich mich sehr , dass wir heute mal hier so einen Aufschlag
2:36
machen . Ich kann mir mal vorstellen , dass wir eine kleine Staffel draus
2:38
machen , weil sicher viele Rückfragen kommen
2:40
, gerade zum Einsatz von
2:42
künstlicher Intelligenz , und deswegen
2:45
würde ich sagen stell dich doch vielleicht selbst nochmal kurz vor
2:47
, wer bist du so als Privatperson , und was genau
2:49
machst du beruflich .
2:51
Sehr gerne . Also , wie du schon
2:53
gesagt hast , mein Name ist Nikolaj Greiner , ich
2:56
bin Jurist , also ich habe das
2:58
ganze Thema studiert und
3:02
habe mittlerweile meine eigene
3:04
Kanzlei , die Private Legal , so
3:10
als zusätzlich zu meinem eigentlichen Job . Ich arbeite
3:12
bei der Hukuburg als Datenschützer , bin
3:17
aber quasi hier als Privatmann Ansonsten
3:22
du hast gesagt , seit 20 Jahren
3:24
in dem Thema drin , wenn du den
3:27
universitären Schwerpunktsbereich , wo das ganze
3:29
IT-Richt und Datenschutz auch schon mein Thema war
3:31
, mitzählst . Also
3:34
, ich habe viele technische Entwicklungen mittlerweile
3:36
mitgemacht , und
3:38
ich brenne immer noch für das Thema . Und
3:40
da kann ich gleich überleiten zu der
3:42
Sache , die du gesagt hast Juristerei
3:45
ist trocken . Genau deswegen brenne
3:47
ich so für die Themen IT und Datenschutzrecht
3:49
, weil das alles andere als trocken
3:51
, das ist
3:54
eines sage ich mal der Rechtsgebiete , wo
3:56
du dich am tiefsten eigentlich mit der
3:58
Nebenmaterie , also außerhalb des Rechts mit
4:00
der Technik befassen musst . Du
4:03
musst kapieren , was da passiert , damit du mit den Leuten
4:05
auch , sage ich mal , auf einem Level reden kannst . Du musst
4:07
in der Lage sein , das
4:09
Juristische in der Sprache vielleicht ein bisschen
4:11
abzulegen und zu gucken , dass du da auf einen
4:13
Nenner kommst , und das ist super spannend
4:16
, und ich könnte mir eigentlich kein schöneres Berufsfeld vorstellen
4:18
.
4:18
Ja schön . Also genau diesen
4:20
Eindruck hast du mir auch bei unserem ersten Gespräch vermittelt
4:23
. Deswegen habe ich gesagt lass uns unbedingt ein Podcast aufnehmen
4:25
, weil genau darum geht es . Es geht
4:27
auf der einen Seite natürlich die Einschätzung oder auch
4:29
die Einordnung , besser gesagt in
4:31
das Recht , was
4:33
wir haben in Deutschland und in der EU , und auf der anderen
4:35
Seite natürlich auch das Verständnis
4:37
. Und vor allem , wenn du das seit
4:40
fast 20 Jahren jetzt machst , dann
4:42
kennst du natürlich auch die Wellen
4:44
der Digitalisierung und KI . Ich
4:46
habe es gestern in einem Meeting mal
4:48
gesagt KI ist im Grunde um
4:51
es mal zu vereinfachen , es ist ja
4:53
nicht irgendwie KI gibt es ja nicht erst seit Chatchi BT
4:55
, sondern das ist einfach eine weitere
4:57
Entwicklung , klar eine Evolution-Stufe
5:00
, wenn nicht sogar eine Revolution
5:02
, aber im Grunde eine Weiterentwicklung der Digitalisierung
5:05
. Deswegen jeder , der KI im
5:07
Unternehmen einsetzen möchte oder sich damit beschäftigt
5:09
, da muss sich zwangsläufig auch mit der Digitalisierung
5:11
beschäftigen oder mit digitalen Prozessen beschäftigen
5:14
. Deswegen gleich mal die Frage
5:16
vorne weg Jetzt haben wir ja einen unfassbaren
5:19
Hype erlebt mit Chatchi BT . Wir
5:22
setzen das alle super gerne
5:24
ein , und nicht nur dieses Tool , sondern auch andere
5:26
Bilderstellungstools . Jetzt
5:29
haben wir gerade erlebt , dass wir Hollywood
5:31
noch angreifen können , weil jetzt auch noch Filme
5:33
möglich sind in der Top-Qualität , ich
5:36
glaube , bis 60 Sekunden ist
5:38
das unglaublich , was diese Technologie heute kann
5:41
. Allein in den letzten drei
5:43
Monaten habe ich gestern mal geschaut , was dort
5:45
technologisch sich alles verändert hat
5:47
. In drei Monaten , ja , also nicht drei
5:49
Jahren , sondern wirklich in einem sehr kurzen Zeitraum
5:51
sind schon Sprachmodelle
5:55
auf den Markt gekommen , die einfach mal
5:57
50 Prozent mehr Power haben als
5:59
die Version davor . Wie
6:02
nimmst du das wahr ? Wie
6:04
gehen Unternehmen und die
6:06
darin enthaltenen Menschen mit
6:08
diesem Thema um ? Ist es zu leichtfertigt
6:11
, ist es noch nicht gut eingeordnet
6:13
? Vielleicht einfach
6:15
mal deine Perspektive , so als ersten Aufschlag
6:17
.
6:18
Also ich würde gerne vorwegnehmen , ki
6:20
, wie du gesagt hast , war ein Prozess
6:23
, aber
6:25
gefühlt hat es sehr viele
6:27
Juristen und auch den Gesetzgeber am Ende dann
6:29
doch überraschend . Man hat jahrelang gesagt , ki kommt
6:32
, wir müssten da irgendwie mal uns mit befassen , und
6:34
plötzlich war es wie Schnipp
6:37
, und es war da Ein
6:40
absoluter du hast das gesagt ein Hype , und
6:44
jeder hatte plötzlich auch das Gefühl , wenn ich jetzt nicht
6:46
aufspringe , bin ich zu spät . Dann
6:49
ist mir quasi alles weggenommen am Markt , egal
6:51
welche Branche das ist . Das ist mein Eindruck , und
6:56
da
6:58
kann ich nur sagen , ich meine , es ist gekommen , um zu bleiben
7:01
, also nicht
7:03
mit dem Gefühl rangehen , ich bin zu spät eingestiegen
7:05
, also lasse ich es gleich . Aber
7:09
du hast gesagt , wie setzen das
7:11
manche zu leichtfertig ein ? Ich
7:13
glaube , bis zu einem gewissen Grad
7:15
ja , eben aus der
7:17
Angst heraus , was zu verpassen . Aber
7:21
ich habe auch schon viele erlebt , die
7:24
sich da
7:26
wirklich Gedanken machen , wobei
7:31
es und vielleicht kommen wir da später noch
7:33
mal drauf zurück ist natürlich schwierig
7:36
, bei was , was über Nacht plötzlich da war , mit
7:38
dem der Gesetzgeber gar
7:40
nicht Schritt halten konnte , das so
7:42
einzuordnen , dass ich sage , du bist da überall
7:45
im zuckergrünen Bereich
7:47
immer unterwegs , was vielleicht auch gar
7:49
nicht sein muss . Aber
7:53
es gibt schon so ein paar Faltsträge auf . Die
7:55
muss man definitiv aufpassen . Die
7:57
liegen im Kerngebiet
7:59
, im Datenschutzrecht , die liegen
8:01
in der neuen KI-Verordnung , die kommt , wir sprechen
8:03
es nachher noch mal an . Die liegen
8:05
aber auch in Bereichen , mit denen man erst mal gar nicht
8:07
so richtig das ganze
8:09
verbindet Thema Urheberrechte oder irgendwas
8:11
, weil du die Bildgeneratoren angesprochen hast . Das
8:14
ist ein ganz heikles Thema . Also
8:18
, das sind viele Dinge , die man beachten
8:20
muss , und es ist
8:22
gefühlt schon so , dass erst die Technik
8:25
da war und sich jetzt Gedanken darüber gemacht wird
8:27
, wie ordnen wir das ein . Aber
8:29
das muss auch nicht schlechtes sein , weil , wie gesagt
8:31
, auch der Gesetzgeber selbst , die Aussichtsbehörden
8:34
hinten gerade dem technischen Fortschritt irgendwo
8:36
hinterher , und
8:40
das hat auch ein bisschen was mit dem Zeitgeist
8:42
aktuell zu tun . Nichtsdestotrotz
8:44
ist nämlich als Jurist mein Plädoyer wir müssen gucken
8:46
, dass wir das am Ende des Tages dann trotzdem alles
8:48
so einsetzen , dass wir uns nicht
8:50
mehr Schwierigkeiten als Vorteile verschaffen
8:53
. Aber aus meiner Sicht
8:55
kann ich vorwegnehmen , geht das auch . Also
8:59
.
8:59
Nikolaj , das mag ich so an dir , weißt du , das
9:01
mag ich so an dir , weil du sagst , wir schaffen
9:03
Möglichkeiten in einem rechtssicheren Raum
9:06
oder versuchen das . Es
9:08
geht ja gar nicht darum und sonst
9:10
wäre auch unser Podcast so gar nicht zustande gekommen irgendwas
9:12
zu verbieten durch
9:15
Gesetzestext , sondern es geht wirklich darum , wir
9:17
können uns für diese Technologie nicht mehr verschließen
9:20
. Und die Frage ist wie kann ich das Ganze sicher
9:22
für mein Unternehmen , für meine
9:24
persönliche Identität einsetzen
9:27
? Das ist das , warum wir
9:29
uns hier heute getroffen haben . Ich habe ein ganz
9:31
konkretes Beispiel . Ich habe mit einem
9:34
Freund von mir gesprochen , der ist im geholfenen Management
9:36
eines Automobilkonzerns , und
9:38
ich habe gesagt wie machten ihr das mit
9:40
KI ? Welche Tools setzen ihr da ? ein ? War voll
9:42
neugierig , wollte wissen , wie effizient
9:45
die in den Abteilungen arbeiten . Und dann hat er mir
9:47
gesagt bei uns sind alle Ports gesperrt , wir
9:49
können das gar nicht verwenden . Du
9:51
profitierst nicht von dieser
9:54
Technologie in deinem Unternehmen , deiner täglichen
9:56
Arbeit . Und er sagt er doch . Und
9:59
dann habe ich gesagt okay , wie machst du das ? Und er sagt er
10:01
, wenn ich aus einem Meeting komme , dann
10:04
nehme ich das Protokoll quasi
10:06
mit nach Hause und setze mich zu Hause
10:08
hin . Da habe ich LGBT im Einsatz , und dann spreche
10:11
ich die ganzen Sachen da rein oder tippt es und
10:13
lass mir das Protokoll erstellen , wofür
10:16
ich Stunden gebraucht habe in der Vergangenheit . Das
10:18
schaffe ich dann einfach in wenigen Minuten Für
10:21
mich als Nicht-Juristen . Ich
10:24
hatte sofort Temperatur . Wie geht es dir damit
10:26
?
10:28
Ja als Jurist , der sich damit der Geschichte
10:31
eingebe fast kriegst du auch Temperatur Aber
10:33
jetzt gar nicht mal wegen dem möglichen
10:36
Rechtsverstoß , der dabei irgendwie passiert
10:38
, sondern weil ich es , wie
10:42
dein Freund ja gesagt hat , im Unternehmen
10:44
sind die Ports bei ihm gesperrt . Er
10:48
nimmt quasi die Daten irgendwo mit nach Hause
10:50
, und da reden wir noch gar nicht von Datenschutz
10:53
. Das sind wir dabei dass er sehr , sehr sensible
10:55
Unternehmensdaten plötzlich
10:57
in ein am Markt frei verfügbares
10:59
Tool , von dem wir und dann müssen wir ehrlich
11:01
zu uns sein von dem wir nichts wissen , dass für uns
11:03
eigentlich eine Blackbox darstellt
11:05
. Gibt er sehr sensible
11:08
. Ja , ich finde das übrigens immer sehr amüsant , wenn Jetschie
11:10
BT wieder sagt wir sind so überrascht , was unser Modell
11:12
alles kann , und
11:16
da werden dann teilweise je
11:19
nach je nach quasi
11:22
Position in dem Unternehmen , die dein Freund da bekleidet
11:24
, für ihn ein Beispiel gehen
11:27
da Sachen über den Äther , wo ich gar nicht weiß , was
11:30
da passiert , also nicht umsonst übrigens haben . Samsung
11:33
hat sehr schnell Lehrgeld bezahlt bei dieser Sache mit Jetschie
11:36
BT damals . Die
11:39
haben das dann sehr schnell eingestellt , und
11:43
wenn ich sowas im Unternehmen aktuell
11:45
anbiete , dann sollte ich das
11:47
zumindest auf einer organisatorischen Ebene
11:49
heben , dass ich
11:51
allen Leuten das nötige Rüstzeug mitgebe
11:54
, dass die auch kapieren , was das Gefährliche
11:56
ist , was gefährlich ist , wenn sie da tun . Wenn
11:59
sich jetzt jemand , sag ich mal
12:01
einfach zur Unterstützung
12:03
bei einer Formulierung beim Text formulieren
12:05
helfen lässt , da verletzt du
12:07
da weder Rechte . Also da
12:09
ist es sehr , sehr schwer , irgendwie einen Schaden anzurichten
12:12
. Wenn du dann aber komplette Unternehmensdokumente
12:14
da reinlädst , um
12:17
sie dir zusammenfassen zu lassen , dann
12:19
weißt du am Ende des Tages aktuell nur
12:21
sehr bedingt , wo deine Daten tatsächlich landen
12:23
, und
12:26
das ist die Crux bei diesen offenen Modellen
12:28
, klar . Also , du kannst mittlerweile bei
12:30
JGBT ja auch irgendwie da Häkchen
12:32
setzen . Soll nicht zu Trainingszwecken gespeichert
12:35
werden ?
12:38
Ist das safe ? Ja , gut .
12:39
Nee , das ist nicht safe .
12:42
Also und da von mir quasi
12:44
erstmal der erste Praxistip , wenn ich sowas einsetze
12:47
, jetzt aktuell mit , sage
12:49
ich mal , jetzt vielleicht nicht
12:51
ganz frei verfügbaren weil ein bisschen ein Obolus
12:53
muss als Unternehmen ja so trotzdem zahlen Aber
12:55
doch rentig recht günstig am Markt verfügbaren
12:59
Tools wie jetzt JGBT als Beispiel , einfach
13:01
weil es der große . Oder nimm das neue
13:03
Gemini von Google Schön . Wenn
13:07
du da das einsetzt , dann
13:10
sind also meiner sich zwei Dinge irgendwo
13:12
eigentlich unersetzlich . Also einmal , du
13:15
musst deine Mitarbeiter damit wirklich vertraut machen
13:17
, du musst denen sagen , was darfst du , was darfst du nicht
13:20
. Als
13:23
Jurist sage ich immer ja , wir vertrauen den Menschen
13:25
. Aber eine technische Sicherung ist am Ende
13:27
des Tages meistens besser . Gar
13:30
nicht mal , weil die Leute was Böses anstellen wollen , sondern
13:32
weil die einfach sorglos sind im Umgang , und
13:35
da ist es aktuell das Beste , wenn du das halt noch
13:37
quasi so ein bisschen das Modell als
13:39
solches , ein bisschen Sandboxt , also
13:41
es nicht frei auf dem Server betreibst
13:43
. Jetzt mit JGBT kannst
13:45
du beispielsweise , wenn du jetzt von einem etwas größeren
13:47
Unternehmen sprichst
13:49
die haben wahrscheinlich im Moment alle irgendwie Aschatenance
13:52
oder irgendwas den kannst du in einem Ascher betreiben
13:54
, wo du zumindest zwar
13:57
noch nicht die Hoheit , die am Ende des Tages wünschenswert
14:00
wäre , hast , aber du
14:02
hast zumindest ein
14:05
riesen Risiko des Datenabflusses irgendwo
14:08
zumindest halbwegs minimiert . Und
14:10
das ist das , wo ich sage , das
14:13
ist eigentlich das , was ich heute machen
14:16
muss , wenn ich
14:18
nicht wirklich zu sorglos an die Numero angehen
14:20
möchte .
14:23
Ja , ich würde sogar noch weitergehen . Also , ich
14:26
glaube , die großen Konzerne haben damit weniger
14:28
ein Thema , weil die
14:30
haben natürlich die KI-Kompetenzen
14:32
im Haus , die haben das nötige Kleingeld
14:34
, um vielleicht auch in solche Ascherumgebungen
14:36
zu investieren . Ich
14:40
glaube , wir tragen so jetzt
14:43
auch am Gründerzentrum
14:46
in Koburg so eine Fahne vor uns her und sagen KI
14:48
für alle . Also , es muss ja auch für kleine und
14:50
mittelständische Unternehmen möglich
14:53
sein , ki einzusetzen und das datenschutzkonform
14:55
, und wir beschäftigen
14:58
uns dort einfach auch mit unseren Startups
15:00
damit . Wie können wir den Unternehmen helfen
15:02
? wie können wir den Unternehmenslösungen
15:04
anbieten , um auch mit ihren
15:06
eigenen Daten zu arbeiten , aber
15:09
das möglichst
15:11
datenschutzkonform , weil es geht ja
15:13
immer um den einen dummen Fall , wo
15:16
dann irgendwelche Daten das Unternehmen verlassen
15:18
, die mir wieder zum Verhängnis werden .
15:25
Also das müssen nicht mal personenbezogene Daten sein , wo
15:27
du dann im Datenschutzrecht drin bist . Wie gesagt
15:29
, das können auch Unternehmensgeheimnisse sein Kommt
15:32
immer auf die Branche drauf an . Wenn du jetzt Automobilbranche
15:34
sagst als Beispiel vorhin , die haben hochsensible
15:37
Unternehmensdaten , das ist ja Samsung auch passiert
15:39
, dass die Entwickler da plötzlich eigentlich Geschäftsgeheimnisse
15:41
reingehauen haben und die dann halt irgendwo
15:43
anders aufgetaucht sind , wenn es blöd läuft , weil
15:46
du ja nicht weißt , ob die nicht doch irgendwie jemand
15:48
wieder aus diesem Modell herausholen kann am
15:51
Ende des Tages . Aber das , was du gesagt
15:53
hast , hier auch den
15:55
Kleinen zu helfen , das Datenschutzkonform
15:58
machen zu können , das ist genau
16:00
, sage ich mal , ein Teil unseres Themas , über das
16:02
wir heute reden wollen , aus meiner Sicht Absolut
16:04
Dass wir an
16:06
der Front sagen
16:08
können wir können hier im
16:11
ersten Mal wir nehmen mal den europäischen
16:13
Kontext im europäischen Raum vielleicht
16:16
Dinge schaffen , für
16:19
die die großen US-amerikanischen
16:21
Tech-Unternehmen überhaupt kein Gefühl haben . Und
16:25
das ist das , wo wir vielleicht einfach besser
16:27
sein können in dem Thema vertrauenswürdige
16:29
KI .
16:30
Ja , Das ist ja auch das , was wir eingangs
16:33
gesagt haben , dass das sogar ein Wettbewerbsvorteil
16:35
wäre , dass wir sagen hey , wir entwickeln
16:38
hier KI-Lösungen , die datenschutzkonformen
16:40
sind , und die
16:43
lassen sich natürlich dann auch darüber hinaus im weltweiten
16:45
Markt anbieten . Weil wir sehen
16:47
das ja so schön zum Beispiel
16:49
in China , dass diverse
16:52
Scorings gibt , wenn ich
16:54
mich entsprechend verhalte , irgendwelchen
16:57
Regeln unterwerfe , und wenn ich das eben nicht
16:59
tue , dann entsprechende Konsequenzen wie
17:01
teurere Versicherungen und dergleichen , und
17:03
das funktioniert eh auch alles schon
17:05
mit KI und sorgt ja dafür
17:08
, dass meine Identität , die ja
17:10
durchs Internet und Social Media sowieso schon sehr
17:12
transparent ist , jetzt auch
17:14
noch zu bestimmten Privilegien
17:16
führt oder den Entzug von
17:18
gewissen Privilegien führt . Also ich glaube
17:20
, dass wir damit natürlich einen
17:22
riesen Vorteil haben , wenn wir uns
17:25
genau auf das , was uns eigentlich in den letzten Jahren genervt
17:27
hat , nämlich das Thema Datenschutz und irgendwelche Cookie-Banner
17:30
wegklicken und so weiter , wenn
17:32
wir das in den
17:34
Fokus setzen . Lassen Sie uns mal
17:36
einen Schwenk machen auf die Regulierung
17:39
von KI , bevor wir weiter
17:41
über den Wettbewerbsvorteil sprechen , weil ich glaube , diese
17:44
Grundlage im Kopf zu haben , was
17:47
das eigentlich bedeutet und was das eben
17:49
dann auch in der Konsequenz auch für eine Chance ist , wäre
17:52
nochmal ein ganz wichtiger Punkt . Kannst du
17:54
nochmal so ganz kurz wiedergeben , was
17:56
der AI-Act oder die KI-Verordnung
17:59
eigentlich ist und was die regeln soll .
18:02
Ja , also letztlich hast du
18:04
, wenn du von der Regulierung von KI-Modellen redest
18:06
, hast du aktuell zwei große Rahmenwerke
18:08
. Du hast natürlich immer dann , wenn es um personenbezogene
18:11
Daten gibt , die Datenschutzgrundverordnung
18:13
. die haben wir schon länger
18:15
, die haben wir seit 2018 . Und
18:19
jetzt kommt die KI-Verordnung
18:21
dazu , also das , was als AI-Act
18:23
, also im englischen Begriff , was
18:27
auch durch die Medien geht , was
18:29
auch dieses Zeheringeln
18:31
im europäischen Gesetzgebungsprozess ja
18:33
auch durch die Medien gegangen ist , Kann
18:36
vielleicht in der anderen Folge mal darüber reden , wie schwierig so was
18:38
ist ? Und
18:42
diese Verordnung ist
18:45
jetzt quasi in den letzten Zügen . Die muss nur noch vom Europäischen
18:48
Parlament unterschrieben werden . Das ist eine Formsache
18:50
. Dann wird die erst mal im Gesetzblatt
18:52
veröffentlicht , und 20
18:54
Tage danach ist die einfach
18:56
da . Und was macht jetzt
18:58
diese KI-Verordnung ? Diese
19:00
KI-Verordnung geht
19:04
risikoorientiert an die Sache ran . Also
19:07
, diese KI-Verordnung möchte einfach
19:10
die Risiken , die mit KI einhergehen
19:12
, und zwar besondere Arten von KI , reduzieren
19:17
, möchte ich jetzt mal sagen . Das
19:21
heißt , du hast in der KI-Verordnung hast du einen
19:23
Bereich , das nennt sich verbotene KI
19:26
. Die ist nicht erlaubt . Also , die ist
19:28
einfach per se mit wenigen Rückausnahmen
19:30
. Das Gesetz ist ein bisschen komplex . Erst
19:32
macht es einen Grundsatz auf , und dann gibt es wieder , aber
19:35
dafür braucht man am Ende des Jahres halt noch die Juristen . Was
19:41
wären verbotene ? Das
19:43
, was du jetzt hier über China gesagt hast , dieses
19:46
Social Scoring und daraus
19:48
Nachteile für Menschen ziehen durch
19:50
eine gezielte Analyse seines
19:53
Verhaltens in seinem Sozialbereich , das
19:55
wäre beispielsweise etwas , das ist da aufgelistet
19:57
als verbotene KI . Was
20:02
hätten wir noch bei den
20:04
verbotenen KI's ? Was haben wir da drin ? Manipulative
20:07
Techniken , um Leute zu beeinflussen
20:09
, ein potentiell schädliches Verhalten vorzunehmen
20:12
, für sich oder für andere . Ausnutzen
20:16
von besonders Schutzbedürftigen
20:19
Personen , also Kindern , alten
20:23
Leuten , leute , die halt einfach
20:25
aufgrund des eigenen Zustandes
20:28
nicht in der Lage sind irgendwie da , einen menschlichen
20:31
Verstand dagegen zu setzen , dass
20:35
man einfach diese Schwächsten in der
20:37
Gesellschaft jetzt völlig ohne
20:39
Wertung durch KI
20:42
noch übervorteilt und da irgendwie was
20:44
ausnutzt . Also du merkst schon , es
20:46
geht wirklich auf Sachen , die
20:49
wirklich schon hart sind
20:51
, wo du die hörst , und du hast sofort
20:53
ein absolutes Unrechtsgefühl
20:55
dabei . Anderes
20:57
Thema biometrische Identifizierung
21:00
anhand besonders sensibler Merkmale Rasse
21:03
, sexualität
21:06
ist , glaube ich , noch mit drin , wo
21:09
du sagst das ist was da
21:12
. Wenn ich halbwegs mit demokratischen
21:14
Werten aufgewachsen bin , fällt mir das schon auf
21:16
, dass das schlecht ist , wenn
21:19
ich die Menschheit in schwarz oder weiß unterteile
21:21
, und das sind so Dinge
21:23
, die stehen da drin . Deswegen
21:26
braucht , glaube ich , für diesen verbotenen Praktiken
21:28
hier bei uns
21:31
auch kein Unternehmen groß Angst haben , dass
21:33
es da wirklich komplett hart
21:35
reinfällt , weil das
21:37
sind wirklich Dinge , wo der Gesetzgeber
21:40
gesagt hat , die sind so jenseits
21:42
von wirtschaftlichen Interessen , dass
21:45
ich das noch irgendwie rechtfertigen kann , dass die einfach verboten
21:48
gehören .
21:50
Ist absehbar , dass das Feld
21:52
enger gefasst werden muss , um
21:54
es einfach besser regulieren
21:56
oder auch kontrollieren zu können . Ich
21:59
will sagen , ich
22:02
habe mich mit vielen Technikern
22:04
auseinandergesetzt und Nerds
22:06
, die KIs entwickeln , die eigene KI-Modelle
22:08
haben , und es gibt
22:10
einen Punkt , an dem es aufhört
22:12
, dass sie verstehen , was das System
22:14
am Ende tut . Es ist eine Blackbox . Sie
22:18
wissen teilweise nicht , wie kommt die
22:20
KI oder das KI-Modell zu einem bestimmten Ergebnis
22:22
, und das sind jetzt generative
22:25
KI-Modelle . Wir
22:27
reden ja noch nicht über Artificial General
22:29
Intelligence , also die nächste Ausbaustufe
22:31
Oder die Ausbaustufe , wo
22:34
eine KI sagt hey
22:36
, weiß ich gerade nicht . Ich frage mal die andere
22:38
KI , ob die mir das eben schnell beibringen
22:40
kann . Es
22:43
ist der Anfang von etwas , ganz sicher
22:45
, aber wie sieht es aus , auch mit
22:47
der Übernahme von Verantwortung
22:49
und Haftung , wenn
22:51
ich gar nicht weiß , was
22:54
mein KI-Modell da am Ende anstellt und
22:57
gegen den AIEigt schürzt ?
22:59
Schwierig . Also
23:02
, wir haben ja außer diesen verbodenen Praktiken
23:04
gibt es dann noch die Hochrisiko-KI . Das
23:07
ist also , kann man
23:09
sich vorstellen , entweder Sachen , die jetzt
23:11
schon irgendwie sicherheitsrelevant sind . Ein
23:13
KI-System in dem Auto ist sicherheitsrelevant , deswegen
23:15
muss es besondere Ansprüche
23:18
erfüllen , beispielsweise . Dann
23:21
hast du noch in der Abgrenzung
23:23
die General Purpose AI nennt
23:26
es , der AIEigt . Das ist das , was wir jetzt
23:28
, glaube ich , langläufig unter generativer KI
23:30
, also eine KI mit einem multifunktional
23:33
einsetzbaren Zweck . Grundsätzlich
23:36
geht die KI-Verordnung erst
23:39
mal vom Zweck her Wozu ist das entwickelt , was soll das
23:41
tun ? Aber die KI-Verordnung
23:43
bringt auch das mit , was du gesagt
23:46
hast was mache ich denn , wenn mir hinterher auffällt , dass da irgendwie
23:48
unerwünschte Ergebnisse rauskommen ? Also
23:51
, da sind ein ganzes Konklo-Marat
23:53
, und das ist , glaube ich , das , was viele Angst
23:55
vor der Überregulierung haben , an Überwachungspflichten
23:58
drin , an Dokumentationspflichten
24:01
, teilweise auch Pflichten , dass
24:03
du dein KI-Modell verstehen können musst , und
24:08
das wird , glaube ich , schon
24:11
. Gerade für Start-ups , die
24:13
in diesem Bereich der Hochrisiko-KI unterwegs
24:15
sind Wie gesagt , die ist teilweise
24:17
enumerativ auch auch gelistet gibt es einen Anex
24:19
3 zu dieser Verordnung . Da
24:23
steht da aufgezählt drin , was unter Hochrisiko-KI
24:26
beispielsweise zu fassen ist , no-transcript
24:31
, und für die gelten halt diese besonderen Pflichten
24:33
aufgrund dieses Risikos , das damit schwingt
24:35
. Was
24:38
diese Verordnung gerade nicht regeln möchte , ist
24:40
alles , was außerhalb
24:43
von der generativen KI das ist ja nochmal ein extra
24:45
Teil in der Verordnung alles , was unterhalb
24:47
dieser Hochrisikoschwelle ist , da
24:49
gibt es kaum irgendwelche Regelungen in
24:52
der KI-Verordnung dazu . Also ein bisschen Transparenz
24:54
, also ein bisschen Transparenzpflichten
24:56
im Sinne wenn jemand mit einem KI-Chatbot redet , muss
24:58
er wissen , dass er mit einem Chatbot redet . Es
25:01
ist augenfällig . Wenn das Ding schon KI-Chatbot
25:03
heißt , muss ich nicht nochmal reinschreiben Sie chatten
25:06
mit einem KI-Chatbot . Was
25:09
aber ganz spannend ist bei diesen ganzen Aufzählungen
25:13
von Hochrisikokai und
25:16
den damit einhergehenden Pflichten
25:18
gibt es teilweise
25:21
so genannte delegierte Rechtsakte an die
25:23
EU-Kommission beziehungsweise
25:25
auch Möglichkeiten
25:27
für die EU-Kommission , diese Liste zu erweitern
25:29
, ohne den AI-Act neu
25:31
zu erlassen zu können . Das macht
25:33
in einem technischen Umfeld , was sich
25:36
rasant entwickelt . Wenn wir jetzt vielleicht noch
25:38
gar nicht vorhersagen können , was für Systeme
25:40
ein hohes Risiko bergen , macht
25:42
das durchaus
25:45
Sinn . Dass so nicht jedes Mal , wenn man weiß , wie
25:47
so eine EU-Gesetz zustande kommt und wie lange sich das
25:49
ziehen kann , wenn nur genug Leute dagegen oder
25:51
dafür sind , macht das
25:53
durchaus Sinn . Ansonsten
25:57
ist es relativ technologieneutral formuliert
25:59
, das Ganze .
26:02
Das würde ja bedeuten , jetzt sind wir mal an . Ich bin
26:04
ein Startup , ich habe ein eigenes KI-Modell
26:06
. Das ist ein Chatbot , mit dem ich
26:08
irgendeinen Kundenservice anbieten
26:11
kann , und den User
26:14
auf der Website . Also , ich verkaufe meinen
26:16
KI-Bot an irgendein Kunden , der setzt das
26:19
auf der Website ein , und die
26:21
Nutzer kriegen irgendwie hin , dass der
26:23
Bot nicht nur das Nutzungserlebnis
26:26
fördert , sondern auch noch eine Anleitung
26:28
gibt , wie man eine Bombe baut .
26:31
So , wer haftet , hast
26:33
du den Salat . Also
26:37
lässt
26:40
sich doch nicht so richtig einfach beantworten
26:42
. Ehrlich gesagt , ich vermeide
26:44
den juristischen Satz . Es kommt drauf an , weil den hasse
26:46
ich wie die Pest . Was
26:49
der AI-Act auch enthält , ist praktisch
26:51
so eine Verkettung . Du
26:55
hast Pflichten von Unternehmen , die KI-Modelle
26:58
erstellen , also der
27:00
Hersteller des Systems , der
27:03
muss dem Nachgelagerten , der das Modell vielleicht
27:05
vertreibt oder einsetzt , die entsprechenden Informationen
27:08
zur Verfügung stellen , dass
27:11
das Ganze auch transparent
27:13
dargestellt werden kann , dass der weiß , was diese
27:15
KI quasi macht . Umgekehrt .
27:17
Das weiß ich nicht , das ist ja mein Problem .
27:21
Und das ist ganz ehrlich , das wird eines
27:23
der spannendsten auch im Datenschutzrecht außerhalb
27:25
der KI-Verordnung wird eines der spannendsten Themen
27:27
sein , KI
27:30
irgendwie erklärbar zu machen oder
27:32
sie zumindest halbwegs erklärbar
27:35
machen , weil da sind Dinge , die stehen da tatsächlich
27:37
auch drin , dass man das verstehen
27:39
können muss , was da passiert , Und
27:43
das ist , was auch . Da kannst du jetzt
27:45
gegebenenfalls , wenn du die jetzt schon damit
27:47
auseinandersetzt , kannst du gegebenenfalls
27:50
irgendwie dir auch wieder ein Wettbewerbsvorteil
27:52
sichern , Weil
27:55
ich glaube , die ganz großen Modelle , die
27:58
jetzt mit Trainingsdaten einmal das
28:00
ganze Internet also ich habe neulich einen
28:02
Kollegen gehört , der gesagt hat , eigentlich
28:05
ist das , was JetGBT gemacht hat beim
28:07
Trainieren der größte Kunstraub der Menschheitsgeschichte
28:09
, Dass
28:12
du mit Modellen , die wirklich auch Validentrainingsdaten
28:15
beruhen , wo du auch die
28:17
Quellen der Trainingsdaten kennst
28:20
, deutlich einen Vorteil
28:22
haben werden gegenüber denen , die einfach erstmal
28:24
alles eingespeist haben , ohne überhaupt da
28:27
irgendwie eine Qualitätssicherung zu machen oder irgendwas
28:29
. Ich glaube , was ich gehört habe , IBM
28:32
ist bei sowas relativ weit vorne
28:34
mit diesem Granitmodell , weil
28:38
die da mehrere Sicherungen eingebaut haben
28:40
vom Filter . Dann wird das rausgefiltert , dann wird
28:42
das rausgefiltert , dass
28:45
du hinterher zumindest zu einer halbwegs
28:47
akzeptablen Erklärbarkeit kommst bei
28:49
den Beinen . Und das wird , glaube ich , eine der größten Herausforderungen
28:52
, Dieser Transparenzgedanke
28:54
, der ja auch im Datenschutzrecht immer mit schwingt , Weil
28:57
es ist schön , wenn im Datenschutzrecht sagt ich lass jemand
29:00
eine Einwilligung unterschreiben für irgendwas , aber
29:02
wenn du eben dich erklären kannst , den Wasser einwilligt
29:04
, hast du schon wieder ein Problem . Und
29:06
das ist das ganz spannende , Anki , dass
29:08
wir jetzt eine Technologie haben , die
29:10
so schnell geworden ist , dass
29:13
halt , wie du vorhin gesagt hast , selbst manche Entwickler ihr eigenes
29:15
Modell nicht mehr erklären können .
29:17
Weil ich glaube , die eine Perspektive auf das
29:19
Ganze das ist interessant was du sagst , ist
29:22
das , was ich an Daten reinpacke in
29:24
so ein System , was ich dann vielleicht
29:27
noch filtern kann . Aber was
29:29
ja Out of Control ist , ist ja im
29:31
Grunde das Assoziative . Also was
29:33
macht das System mit dem , was gepromptet
29:35
wird , was eingegeben wird , was ich von dem System
29:37
will ? Also
29:40
wie verknüpft ist diese Information
29:43
völlig selbstständig , und
29:45
ich kann eben nicht kontrollieren . Also
29:47
Stand heute in allen
29:49
großen LLMs , also Large
29:51
Language Models , was da am Ende rauskommt
29:54
, und das sehe ich halt als riesen
29:58
Thema , also Imputs , das Outputs-Thema
30:00
.
30:00
Das ist das , was ich an
30:02
den anderen finde . Ich glaube , du
30:04
kannst der Sache auf . Du
30:07
brauchst halt aus meiner Sicht , damit du das halt wirklich vernünftig
30:09
hinbekommst Du brauchst ein Input-Filter . Du kannst
30:11
nicht beliebige Trainingsdaten machen , und
30:14
du wirst am Ende wahrscheinlich auch immer einen Output-Filter
30:16
haben brauchen , der dir das , was du sagst , das
30:18
, was ich nicht vorhersehen kann
30:21
, das im Modell passiert , in dieser
30:23
quasi Blackbox where
30:26
the magic happens . Da
30:29
brauchst du noch mal ein Output-Filter , um zu sagen okay
30:31
, es gibt folgende Dinge , die will ich ja auf keinen Fall
30:33
sehen , dass da irgendwie
30:35
rauskommt . Also das Thema des
30:38
Filterns nochmal der Antworten
30:40
und des Inputs , das
30:43
werde ich bekommen , das werde ich haben das Problem . Also
30:46
ist ja jetzt viel über den RIG
30:49
geschimpft worden , überregulierung etc . Ja
30:52
, europa neigt dazu , alles
30:55
sehr detailliert zu regulieren , und
30:59
der RIG ist
31:01
auch wirklich aus
31:03
meiner Sicht weit weg davon , perfekt zu sein
31:05
. Aber es ist , glaube ich
31:07
, gut , dass wir ihn jetzt haben und ihn bekommen werden
31:09
, weil du kannst , mit dem , was da drin steht , kannst
31:11
du arbeiten . Es gibt auch den Unternehmen
31:14
haltwegs eine Rechtssicherheit , um zu wissen
31:16
, was muss ich jetzt irgendwo erfüllen ? Da braucht es
31:20
auch ganz groß im RIG angelegt sind
31:22
so Sachen wie Managementsysteme . Ich muss
31:24
irgendwie das Risiko beherrschbar
31:26
machen , indem ich Risikomanagement betreibe
31:28
Klassische
31:30
Schadenshöhe mal Eintrittswahrscheinlichkeit
31:33
was kann da passieren , und wie kann ich das
31:35
beherrschen ? Dokumentationen
31:38
und so was . Also ja , das Ding bringt Verwaltungsaufwand
31:41
im Bereich der Hochrisiko-KI
31:43
und im Bereich der , wenn du
31:45
tatsächlich diese General Purpose-AI-Modelle
31:48
erstennst , also das , was bei uns jetzt die Large Language-Modelle
31:50
sind , aber
31:52
es ist erfreulich wenig komplett
31:54
verboten . Man
31:58
geht halt tatsächlich mit diesem Risiko-Gedanken
32:01
daran , um zu sagen okay , wir
32:03
sind uns alle einig , ki bringt Risik mit , die
32:06
müssen wir irgendwie für
32:09
Menschheit klingt jetzt so
32:11
groß , aber die müssen
32:13
wir halt für die Leute , die das benutzen , irgendwo eingrenzen
32:16
, diese Risiken , und
32:19
da wird es einfach ohne Regulierung auch nicht
32:22
funktionieren . Und nicht umsonst sind übrigens
32:24
gerade die Amerikaner dran , wie
32:27
ich zuletzt gelesen habe , dass
32:30
sie jetzt ein bisschen vom AI-Act auch
32:32
abschreiben , um
32:35
zu gucken , wo es dahin geht . Also , man kann sich
32:37
das Ganze so ein bisschen produktsicherheitsrechtlich
32:39
fast vorstellen , also wie bei einem Auto Da
32:42
müssen auch die Teilen in einem gewissen Prozess durchlaufen
32:44
, um hinreichend sicher zu sein , und
32:46
sowas bringt das jetzt für das Thema Hochrisiko-KI
32:48
.
32:49
Ja , also ganz ehrlich , ich bin sogar
32:51
stolz , dass das so schnell ging
32:53
, weil wir haben
32:56
ja , ich glaube in Brüssel bei der EU
32:58
2009 eingereicht
33:00
, dass es einen einheitlichen
33:03
USB-C oder USB gar nicht USB-C , den
33:05
gab es damals noch gar nicht aber USB-Standard gibt
33:07
, und in 2025 ist es jetzt
33:09
wirklich verpflichtend . Wir
33:11
wollen nicht ausrechnen , wie lange das gedauert wird . Also
33:14
von daher das jetzt
33:16
nur so als kleiner Seitenhieb . Also
33:19
ich finde es echt cool , dass wir das so schnell
33:22
auf die Bahn gebracht haben , einfach auch deshalb
33:24
, weil , wenn man sich ein bisschen mit dem
33:26
Thema KI beschäftigt also ein bisschen
33:28
meine ich mit wenn man so wirklich Einblicke
33:31
hat in das , was damit
33:33
alles möglich ist Ich hatte hier im Podcast
33:36
auch schon jemanden von
33:38
der Bundeswehr sitzen Also
33:40
es ist gar nicht vorstellbar
33:42
, wenn man nur ChatGPT kennt , was
33:44
damit noch so alles geht . Das
33:47
heißt , wir müssen unbedingt einen Anfang machen
33:49
, weil natürlich auch das Thema Cyber Security
33:51
ein großes Thema . Also wir profitieren
33:53
ja nicht nur , weil es uns effizienter macht , sondern
33:55
es macht ja auch die Hacker effizienter . Ich
33:57
habe gelesen weniger als 10 Dollar
34:00
kostet einen Angriff auf einer
34:02
Website mit
34:04
KI . Also das ist überhaupt
34:06
keine Zeitkomponente , ist wesentlich
34:09
schneller geht das heute .
34:10
Das war es schon immer in der IT Security . Also
34:12
war schon immer so ein Rattenrennen Wer
34:15
ist schneller ? die Angreifer sind meistens schneller
34:17
, weil der Verteidiger nur reagiert
34:19
, und das fördert KI definitiv . Nochmal
34:21
, weil
34:24
du jetzt von der Bundeswehr
34:26
jemanden erwähnt hast das
34:28
ist übrigens einer der großen Kritikpunkte der
34:31
KI-Verordnung , wobei
34:33
da halt die geopolitische Lage auch mit rein
34:35
spielt . Das hat Themen wie Verteidigung
34:37
und öffentliche Gewalt
34:39
weitestgehend
34:41
ausgenommen sind . Also das
34:44
müssen die Länder selbst regulieren , ist auch immer so ein bisschen
34:46
die Frage , wie weit die EU regulieren darf
34:49
in gewissen Bereichen . Also
34:53
je nachdem , wie man
34:55
das Weltgeschehen einschätzt , ist das jetzt richtig
34:58
so oder falsch . Aber es ist eine der Kritikpunkte
35:01
an der KI-Verordnung , dass das eben ausgenommen
35:03
ist .
35:05
Ja , um mal ein ganz konkretes Beispiel zu
35:07
nennen es
35:10
geht ja unter anderem darum , dass
35:12
Menschen und
35:15
selbst und deren Grundrechte
35:18
nicht gefährdet werden laut
35:20
AI Act . So , und da
35:22
bin ich im militärischen Jahr gleich
35:24
ganz weit vorne , wenn ich anfange
35:26
, drohnen als Kamikaze Flugobjekte
35:29
auf irgendwas drauffallen zu lassen , wo Menschen drin sitzen
35:32
, oder per
35:34
Schwarmintelligenz da
35:36
noch ein paar mehr Aktionen fahren kann
35:38
. Also von dem her wäre das gar nicht
35:40
. Das muss das Militär , glaube ich , in
35:42
einem eigenen Act , militär
35:46
AI Act oder sowas regeln .
35:48
Also , das würde ja gar nicht passieren . Ja
35:50
, es ist , glaube ich
35:52
, aktuell in der Situation , wo ja irgendwie Abschreckungen
35:54
wieder populär geworden ist . Aber da kommen wir
35:56
jetzt zu weit ins politische , lass uns zum Juristischen
35:59
zurückgenommen .
36:00
Ja , ich finde es ganz interessant
36:03
, weil sagen wir mal , es gibt ja immer
36:05
die White-Hacker und
36:07
die Black-Hacker . Wir
36:09
versuchen , uns da natürlich ethischen Grundsätzen
36:12
zu bedienen und uns daran zu
36:14
halten , was voll wichtig ist
36:16
, gerade wenn ich aus meiner Kinder denke und dergleichen wenn man
36:18
auf der anderen Seite reguliert
36:22
, halt auf der anderen Seite auf der schwarzen Seite
36:25
niemand , aber
36:27
es ist , finde ich , total wichtig , genau
36:29
das per Gesetz einfach
36:31
auch in die entsprechenden Fahrwasser zu bringen . Lass
36:34
uns mal und ich habe
36:36
gesagt , wir schaffen heute mal so ein paar Grundlagen
36:38
, dass man es einigermaßen einordnen kann
36:40
Beim nächsten Mal machen wir einen Deep Dive zu einem oder
36:42
anderen Thema . Also das schon als kleine Ankündigung
36:44
. Lass uns mal über die Wettbewerbsfähigkeit
36:47
sprechen , weil das finde ich ein ganz spannender Punkt , weil
36:49
die Unternehmen , die
36:51
wir haben in Deutschland , auch in unserer Region
36:53
, natürlich einen riesen Vorteil haben , wenn sie das
36:55
mit ihrem Business-Modell verbinden , also ein eigenes
36:58
KI-Modell mit ihrem Geschäftsmodell
37:00
verbinden , um
37:02
datenschutzkonform besondere
37:05
Leistungen anzubieten . Wie siehst
37:07
du aus der Datenschutzperspektive
37:10
betrachtet diesen Wettbewerbsforder
37:12
im globalen Geschehen ?
37:15
Ich glaube , das zwei Ansatzpunkte . Du hast einmal das
37:17
Thema . Ich glaube
37:19
, ki ist was sehr sensibles , auch für die Menschen
37:21
. Es geht ja eher immer so richtig
37:24
in die Richtung . Man denkt ja in
37:26
die Richtung persönlicher Assistent . Und wie kann
37:28
uns das künftig im Alltag und ich
37:30
teile mit einem persönlichen Assistent nichts , wo
37:32
ich Angst haben muss , dass das
37:34
hinter 7000 anderen Leuten irgendwie wieder
37:36
ausgespuckt wird Das ist einfach so der
37:38
Vertrauensansatz , und vielleicht habe
37:40
ich da einfach den Glauben in die Menschheit trotz Facebook
37:42
und Google noch nicht verloren
37:45
. Das ist aber einfach nicht , dass , wenn der Mensch
37:47
die Wahl hat zu einer
37:49
vernünftigen Alternative
37:52
, wenn er die Wahl hat , ich kann das machen , ohne dass ich
37:54
mich gedanklich nackt ausziehen
37:57
muss , oder mit bin
37:59
ich immer noch da . An sich wird sich der Mensch dafür entscheiden , doch
38:01
seine Privatsphäre irgendwo zu behalten . Und
38:04
das ist ein Ansatz , glaube ich , der lohnt
38:06
, dass man den verfolgt , dass
38:09
man den Leuten zeigt passt auf , bei
38:12
uns kriegst du was , aber du kriegst es sicher . Und
38:14
jetzt nicht nur im Hinblick vielleicht auf Datenschutz
38:17
, sondern es ist auch IT sicher . Es
38:22
ist vielleicht das , was wir über Filtervorein gesagt haben
38:24
. Da ist nicht alles reingeflossen . Das
38:26
ist , was damit schaffst du , glaube ich , vertrauen , und
38:28
je mehr die Leute diesem ganzen Thema vertrauen
38:31
. Ich habe neulich weiß nicht , war die Umfrage
38:33
von dir vertrauen sie der KI vollständig ? die
38:35
war , glaube ich , von dir , und
38:38
ich glaube , wenn du dann den ganz großen Wurf irgendwann
38:41
hinkriegen willst , dann musst du die Leute dazu bringen
38:43
, dass sie da Vertrauen haben , und
38:45
das kriegst du nur mit nem guten Konzept
38:47
in Richtung Datenschutz und Sicherheit hin . Das
38:50
ist der eine Aspekt . Jetzt
38:52
wird immer geschimpft über die EU . Wir sind ja
38:54
im globalen Geschehen
38:57
dadurch gar nicht wettbewebsfähig . Jetzt lassen
38:59
wir mal die bestrebungen , die US-amerikanischen
39:01
Bestrebungen weg , da auch irgendwas zu machen . Das
39:04
ist auf der Weltebene marktes
39:08
Sein . Also das muss man ganz
39:11
klar sagen . Wenn ich mich als Europäer an Regeln
39:13
halten muss und möchte , was in den USA verkaufen
39:15
an jemanden , der sich dort nicht an Regeln halten muss
39:17
, dann habe ich dann Wettbewerbsnachteil
39:20
erst mal . Wie
39:22
gesagt kommt dann auch auf die Mentalität der
39:24
Bevölkerung an , ob ich diesen Datenschutz-Sicherheitsgedanken
39:27
da effektiv spielen kann . Wenn
39:30
ich mir jetzt aber Europa als wo
39:33
ja erst mal die meisten Start-ups denken , wenn
39:35
ich mir Europa jetzt vorstelle als Wettbewerbsmarkt
39:37
ich
39:40
stelle mir manchmal die Frage , was würde denn passieren
39:42
, wenn wir keinen regulierten Markt hätten ? Könnten
39:45
wir gegen die großen Konzerne , die ja trotzdem
39:47
dem auch unterlegen , könnten wir da überhaupt bestehen
39:50
, oder würden die uns einfach überrollen , wenn
39:53
die sich genauso wenig an Regularen
39:55
halten müssten wie bei
39:58
sich zu Hause in Ländern , wo
40:01
halt das Thema nicht so gehandhabt
40:03
wird . Es hat auch
40:05
eine gewisse Schutzfunktion , muss man an
40:07
der Stelle sagen , und
40:10
ich glaube
40:13
, das wird manchmal zu wenig gesehen
40:15
, aber
40:18
nichtsdestotrotz für mich der Ansatzpunkt
40:21
tatsächlich Vertrauen schaffen in
40:23
sowas ist immer gut . Du
40:25
hast also ein kurzes Beispiel aus meinem
40:27
Kanzleialltag Du
40:31
bist als Jurist . Wenn du jetzt als Rechtsanwalt
40:33
tätig bist , hast du ja nicht nur hier irgendwie
40:35
die normalen Datenschutzrechte , du musst auch Berufsgeheimnisse
40:38
, waren und solche Dinge . Und
40:40
da gibt es gerade in Deutschland relativ
40:42
viele Berufsgruppen , die auch irgendwie unter Berufsgeheimnisse
40:45
oder sowas fallen . Das heißt , du kannst
40:47
nicht einfach hergehen
40:50
und sagen , ich berate jetzt meine Mandanten
40:52
online mit einem Tool , wo ich weiß
40:54
, da hört Gott und die Welt mit , sondern
40:57
, du brauchst etwas , was hinreichend sicher
41:00
ist , dass du diesen Berufsgeheimnis irgendwie herwerten
41:02
kannst . Und
41:04
das hast du in ganz , ganz vielen
41:06
Bereichen . Und wenn die Leute nicht auf Datenschutz
41:09
hören wollen an der Stelle
41:11
, dann müssen
41:13
sie mal an ihre Unternehmensdaten einfach denken , weil
41:17
die willst du ja auch nicht offen irgendwo
41:19
preisgeben . Das ist das , wo wir eingangs gesagt haben
41:22
, wenn wir jetzt hier JETT-TBT in der offenen Version
41:24
verwenden , und ich gebe da sensible
41:26
Unternehmensdaten rein . Das Protokoll
41:28
der letzten XY-Sitzung Gesellschaftsverfassamlung
41:32
, ja , gesellschaftsverfassamlung . Dann
41:34
hast du im Worst Case einer , der irgendwie durch einen
41:36
Prompt blöderweise da drüber steubert , und
41:38
der kriegt das vielleicht da wieder raus . Dass
41:43
, wenn den Leuten bewusst ist , haben
41:46
wir hier , glaube ich , einen echten Wettbewerbsvorteil
41:48
, da ins Rennen zu
41:50
gehen und sagen Leute , ihr bekommt das bei uns auch , aber
41:52
ihr bekommt das auf eine Art und Weise , dass
41:55
ihr nicht nur gesetzlichen Anforderungen genügt
41:57
, sondern dass ihr vielleicht auch nachts ein bisschen ruhiger
41:59
schlafen könnt .
42:01
Ja , und es gibt
42:03
ja viele Beispiele . du hast mit Samsung ja
42:05
schon ins Aufgeführt , wo
42:07
das ein Problem
42:09
ist . ja , aber wo das natürlich auch langfristig
42:12
, gerade wenn sie das Ganze weiter so entwickelt
42:14
und der Zugriff über andere KI-Systeme
42:17
auf entsprechende Daten , das
42:20
ja auch schnell dann wirklich also
42:23
unternehmerischen Disaster
42:26
sein kann . Ja , also vielleicht auch gerade
42:28
so bei kleineren mittleren Unternehmen
42:31
. also willst du keine
42:33
Klage haben zum Thema Datenschutz
42:35
, weil irgendjemand rausgefunden hat , dass deine Daten
42:38
eigentlich offen liegen ? Ja , Interessant
42:40
finde ich auch wie bereit will ich ja dann
42:42
doch das Ganze an Informationen
42:45
geteilt wird . Also ich
42:47
bin erstaunt , dass wir
42:49
so in den vergangenen Jahren immer wieder
42:51
Firewalls
42:53
gebaut haben , und wir wollten
42:55
das Ganze sicher machen . Aber
42:58
seit dem KI gibt es so ein
43:00
Hype , das gar nicht darüber nachgedacht wird , inwieweit
43:02
vielleicht Chatchi-BT für mein Unternehmen
43:05
gänzlich ungeeignet ist . Ja , jetzt kann
43:07
ich natürlich sagen , ich bin jetzt ein Schreiner , ja , jetzt
43:09
für mich nicht so wahnsinnig , unternehmensgeheimnisse
43:11
schützenswert oder so , aber das
43:14
Thema Datenschutz letztendlich schon .
43:16
Aber das ist ja eine Geschichte , die kannst
43:18
du ja risikoorientiert betrachten
43:20
. Ja Also , dass
43:22
du sagst okay , ich
43:24
mache nur Folgendes damit , und dann
43:26
mag das im Einzelfall okay sein
43:28
. Aber ich würde jeden davon abraten
43:31
, jetzt in solche aktuell offenen Systeme
43:33
irgendwie den halben Kundenbestand
43:35
irgendwie da reinzuspielen , weil
43:37
das geht einfach nur nach hinten los .
43:41
Ich glaube , wer hat noch nicht mal das . Also so viel
43:43
traue ich den Leuten schon zu . Aber jetzt
43:45
nimm mal einen Praktikanten
43:47
Ja , der hat gerade neu angefangen
43:50
, kennt sich noch nicht mit den ganzen Gegebenheiten
43:52
aus , und der soll mal schnell was machen . Ja
43:54
, schreibt mal das schnell zusammen , fasst mal das hier schnell
43:56
zusammen , recherchiert das mal ganz schnell , was
43:59
wir für unsere Patentanmeldung brauchen , oder
44:01
so weißt du , wie schnell landen die
44:03
Daten dann im Netz . Ich habe mit einem Unternehmen mal gesprochen
44:05
. Ich habe gesagt wie regelten ihr das ? Ihr setzt
44:08
Chabrot-BT ein , wie macht ihr das
44:10
? Wie stellt ihr sicher , dass keine Daten
44:12
das Unternehmen verlassen ? Der einzige
44:14
Antwort war und das machen , glaube ich , viele Unternehmen
44:17
so dass sie einfach sagen wir bieten
44:19
also Weiterbildung an , wir sensibilisieren
44:22
die Leute darauf , aber eine echte Kontrolle am
44:24
Ende des Tages haben wir nicht .
44:26
Ja , und also ist es auch übrigens der
44:29
Grund , warum ich glaube , dass es bei
44:32
großen Unternehmen , die die Möglichkeiten haben
44:34
, langfristig einfach wahrscheinlich
44:36
auf du nimmst dir ein Teil
44:38
und trainierst das mit deinen Daten in einer
44:40
Umgebung , die du beherrschen kannst dass
44:44
es darauf bei vielen Dingen hinauslaufen
44:46
wird , weil das einfach die Variante
44:49
ist , die du am leichtesten beherrschen
44:51
kannst , die du transparent gegebenenfalls auch darstellen
44:53
kannst , weil du sowohl die
44:55
Hand auf den Input , gegebenenfalls
44:58
dann durch Filtertechniken auch auf den Output hast
45:00
. Und das ist das
45:02
, was ich gesagt habe . Man
45:05
muss halt einfach gucken , dass
45:07
man diese Wahnsinnstechnologie Irgendwo
45:12
in Bahnen lenke , die sowohl
45:15
das positive da rausholen
45:17
, was ja . Also brauchen wir nicht drüber reden . Ich mein , du hast
45:19
mich jetzt kennen gelernt , ich bin auch so kleiner technik Technikfreund
45:22
, anders könnte ich mein Job gar nicht machen . Das ist das tolle
45:24
an meinem beruf
45:27
, dass es Wahnsinn , was da geht . Auch
45:29
in mir erwacht da der spieltrieb , aber
45:31
den muss ich halt ein bisschen kanalisieren und sagen
45:33
, ich bring den jetzt in Bahnen , die
45:36
weder mich noch mein Unternehmen noch andere
45:38
irgendwie gefährden . Und
45:41
das Schöne ist ja , es geht
45:43
also
45:45
vielleicht nicht . Wie gesagt
45:47
, die tache mit der transparent , da werden wir noch ein bisschen erwirkt , noch
45:49
ein bisschen wasser den Bach runter fließen . Wir
45:51
müssen mal so richtig gucken , wie kriege
45:54
ich denn so ein modell transparent . Aber
45:56
auch das wird , bin ich überzeugt davon , eines
45:58
tages zumindest so gelingen
46:00
, dass du dein nutzer , der hinterher
46:02
das zeug verwendet , sagen kannst
46:04
du pass auf , okay , das und das ist das
46:07
, was da , das ist die magic
46:09
quasi . Du
46:12
brauchst keine amts haben , dass da jetzt irgendwas irgendwie
46:14
den äther verschwindet ja
46:19
, auch noch mal .
46:21
Vielleicht noch mal so ein seiten thema
46:23
. Was ich gerne noch aufmachen wollen würde
46:25
, ist nehmen wir zum beispiel das thema wahlmanipulationen
46:28
. Ja , also , wir haben ja gelernt
46:30
. Nehmen wir mal das trump beispiel
46:33
, wie er auch offen damit ist . Jetzt
46:35
mich erstaunt , dass auch da keine große
46:38
widerspruchswelle oder empörung
46:41
stattgefunden werden , das gesagt wurde
46:43
. Wir haben im wahlkampf tatsächlich auf
46:45
in intelligente technologien
46:48
gesetzt , um einem
46:50
wähler , der trump ablehnt
46:52
, dort zu begegnen
46:54
, wo es ihm am meisten weh tut
46:57
, um wahlversprechen zu machen , dass der
46:59
seine meinung ändert oder das häckchen setzt , weil
47:01
kein anderer diesen einen
47:03
punkt , der ihm so wichtig ist , benennt
47:05
. Ja also , und
47:08
das ganz offen kommuniziert
47:12
wird . Also mich erstaunt , dass und
47:14
je besser , damit habe ich ja maximalen
47:17
einfluss auf eine gesellschaft , ja , je besser
47:19
ich diese technologien
47:22
und tools orchestrieren kann . Ja , und
47:24
beherrsche oder sie überhaupt einsetzen
47:26
. Ja , ist erstaunlich
47:29
. Habe letztens eine grafik gesehen , das war ganz interessant
47:31
. Alle parteien in deutschland , inklusive afd
47:33
, wie engagiert sind die im bereich digitale
47:36
kommunikation ? ja , mit
47:38
weitem abstand die afd vorne
47:41
.
47:42
Also , die bedienen halt einfach die sozialen nizwecke ja
47:45
, und wenn du dann halt das , was
47:48
k i jetzt ermöglicht , in diese richtung ist
47:50
immer schon ein bisschen bei diesen manipulativen
47:52
techniken , was
47:55
dann vielleicht irgendwo verboten
47:58
ist , dann auch der k i verordnung
48:00
. Aber du brauchst ja also
48:03
das , was du vorhin gesagt hast die leute
48:05
, die irgendwas anstellen wollen , die
48:07
halten sicher an keine regeln . Und
48:10
wie schnell ist , wenn du so ein latsch
48:12
lengwitz modell online irgendwie open source
48:14
anbietest , wie schnell ist da ein filter , den ich mal
48:16
eingebaut habe , wieder ausgebaut ? das
48:20
wird , es wird total spannend . Und gerade an der
48:22
sache , die ja auch so in richtung bisschen deep
48:25
fake geht , meinungsmanipulation
48:28
durch dinge , die vielleicht gar nicht so sinnwiese erscheinen
48:30
auf den ersten blick . Also
48:33
da kommt zu meinem zwei
48:35
herzen der des technikfreunds , des
48:37
juristen , noch das , das vaters dazu , wo
48:39
ich mich frage ok , wie schaut die welt vielleicht
48:42
mal aus , wo meine kinder dann aufwachsen oder
48:44
in der sie dann mal leben ? weil
48:46
ja , und das
48:48
ist , das ist für mich bei , bei aller liebe zur
48:51
k i , ich glaube , was wir nie verleeren dürfen
48:53
, ist , selber kritisch zu denken und
48:56
da sind wir spitzenreiter .
48:57
Auch da wieder eine statistik die
49:00
skeptiker in deutschland sind
49:03
bei , glaube ich
49:05
, 40 , 45 prozent
49:07
, ich glaube , die gegner
49:09
bei 19 prozent , und bei den
49:11
skeptikern sind , glaube ich
49:13
, 47 prozent , von denen wiederum über 50
49:17
oder 55 Jahre . Also
49:19
wir haben , wir als deutsche
49:21
so eine grundskepsis , deswegen sind wir
49:23
nicht so wahnsinnig schnell unterwegs , die uns vielleicht
49:25
aber auch zum vorteil wird . Ja , das muss
49:27
ja nicht negativ sein . Wir
49:30
sind vielleicht jetzt nicht die wahnsinnig schnellsten
49:32
, aber wenn ich so an unsere kinder denke , dann sind
49:34
wir , die die wege jetzt ebnen
49:37
und die die digitalen infrastrukturen
49:40
sicher machen , weil unsere
49:42
kinder werden mit k i system so
49:44
normal umgehen , wie wir unser handy in die
49:46
tasche stecken . Ja , du hast vorhin gesagt
49:49
, es ist immer vertrauen , ist voll
49:51
wichtig , dass wir
49:53
dieses , dieses fast building
49:55
hinkriegen , weil wir oder unsere kinder
49:58
mit den mit den k i s oder mit den eis
50:00
assistenten dann einfach auch
50:02
ganz normal umgehen und sagen okay , wenn der das
50:04
mir so sagt , dann wird es schon zu sein , einfach
50:07
nicht mehr hinterfragt werden , dann irgendwann . Das
50:11
ist so , das ist so noch sehr
50:14
cool . Gibt es ein buch , was du empfehlen kannst
50:16
? kann man irgendwas zu dem thema lesen
50:19
? oder
50:21
also zum thema
50:23
e act ?
50:24
gibt es bisher eigentlich nur
50:26
nur aufsätze , weil das thema ist so neu
50:28
, und es ist ja noch . Es ist
50:30
so , dass die fassung , die dann veröffentlicht
50:33
wird , die ist auch von der nummerierung her noch ganz anders
50:36
, die wird dann noch mal glatt gezogen , ist , wird
50:38
noch alles hübsch gemacht . Also da gibt es jetzt
50:40
noch also
50:43
keine publik , kein , kein buch . Dass
50:45
ich jetzt kennen würde , muss ich dazu
50:47
sagen , vielleicht war einer so schnell , und ich habe es nur nicht
50:49
mitgekriegt oder
50:51
zum thema etik oder so . Also
50:56
habe ich jetzt ehrlich gesagt , habe ich kein , habe ich
50:58
kein muss entschreiben , das
51:01
erklärst du meiner frau keins
51:07
, dass ich jetzt ehrlich gesagt gelesen hätte , was
51:09
ich jedem empfehlen kann
51:12
, sich auf jeden fall
51:14
mit der kf i verordnung zu beschäftigen , auch jetzt
51:16
schon , auch was datenschutz
51:19
und kian geht . Und da muss
51:21
ich auch mal , auch
51:23
wenn es die kontrollierende seite ist , da muss ich die bayerische
51:26
aufsicht mal oben datenschutzaufsicht . Die
51:29
hat ganz gute zusammenfassungen , verständlich
51:31
auch für startups und klein unternehmen
51:33
rausgebracht
51:36
, und die findest , findet man auf den ihrer webseite
51:38
. Die
51:42
stellen schimpft sich landesamt für datenschutzaufsicht
51:44
, und da
51:47
sind checklisten drauf , da sind flier
51:50
drauf , die das thema aufgreifen . Also die
51:52
waren da jetzt sehr rürig , um
51:54
zu sagen schaut her , leute , das müsst ihr
51:56
machen , um das beherrscht zu machen . Und auch
51:58
die und deswegen lob
52:00
ich das an der stelle auch mal gehen nicht
52:02
mit den gehen , nicht mit dem ansatz ran
52:04
, bleibt uns bloß weg mit dem teufelszeug
52:06
, sondern die gehen auch
52:08
damit ran und sagen wir machen die , lasst , lass uns die
52:11
riesigen beherrschbar machen und dann
52:13
das wirklich gute daraus ziehen und
52:15
irgendwie in eine schöne neue , bunte
52:17
welt aufbrechen sehr
52:20
cool .
52:22
Wie hältst du dich produktiv ? das ist mir
52:24
immer eine ganz spannende frage . Gibt es irgendwelche
52:27
tools , die du verwendest , um
52:29
deinen arbeitsalltag
52:31
zu hacken
52:34
? einfach schneller zu sein , effizienter
52:36
zu sein , mehr zahlt für die kinder zu haben ?
52:39
also muss man sagen
52:41
, gibt es mittlerweile für
52:43
, gerade für also
52:45
habe jetzt keine große anwaltskanzlei
52:48
, weil die besteht aus meiner person gibt
52:51
es mittlerweile ganz coole dinge . Im bereich
52:53
legal tech geht auch so ein
52:55
bisschen in richtung k i , die anwalts
52:59
tools , die es am mark gibt , die werden immer besser
53:01
in sachen selbstanlage , oder es
53:04
gibt mittlerweile auch auch tatsächlich
53:06
datenschutz konforme
53:08
chatbots , die jetzt sicherlich
53:10
nicht die qualität eines eines
53:13
jet gpt es vielleicht erreichen , aber die
53:15
dir beispielsweise bei der neuanlage
53:17
von , von akten , bei der mandatsaufnahme
53:19
und sowas wirklich
53:21
gute dienste leisten . Was
53:26
auch cool ist und ich nie wieder missen möchte
53:28
, sind , sind kein
53:30
typisches k i tool , aber sind tools , mit denen du
53:32
online verträge unterschreiben kannst , etc
53:34
. Also du bekommst
53:36
es heute . Bis auf wenige ausnahmen , die jetzt
53:38
irgendwie noch im in
53:40
der anwaltsordnung oder im
53:43
rechtsberatungsgesetz irgendwie verankert sind , bis
53:45
auf ganz wenige dinge kommst du heute als anwalt
53:48
tatsächlich papier los durch
53:51
die welt und du kannst dich auch online
53:53
mit mandanten irgendwie austauschen . Das
53:55
ist schon ganz cool . Also , wenn ich so
53:59
nach meinem studium vergleichen , also ich fertig war
54:01
, war das noch ne . Also es war eine komplett andere
54:03
welt eigentlich fast aber
54:06
wie sicher ist dein job ? also
54:08
sagen ich
54:16
weiß ich nicht , ob das schon , ob ich
54:18
es tatsächlich schon merke . Also war ja vorher
54:20
mit google auch so . Na also , ich
54:23
glaube , bei rechtsanwältern und ärzten war das gleich
54:26
. Ich habe das symptomal gegoogelt , ich habe mein rechtsfall
54:28
mal gegoogelt . Also
54:30
bei den gemischten ergebnissen
54:32
, die heute noch rauskommen , wenn du fiktive fälle
54:35
da eingibst , glaube
54:37
ich , dass wir in naher zukunft noch
54:40
unseren job erhalten werden , und
54:42
ich glaube auch nicht , dass wir gedanklich schon soweit
54:45
sind , dass du die k i recht
54:47
sprechen lassen willst ne
54:51
, weil das wäre genau das gleiche .
54:52
Wie an der waffe muss am ende ein
54:55
menschenentscheidung treffen . Also das glaube ich schon . Ich
54:57
glaube , nehmen
55:00
wir mal die ganzen recherchen für präsidentsfälle
55:02
oder solche sachen , also dieses ganze doing
55:04
, um zu einem ergebnis zu kommen . Das ist eine
55:07
strategie wird .
55:09
Es wird immer besser , es wird
55:11
immer besser . Du musst es halt dir aktuell tatsächlich
55:13
auch auf , auf auf grund , dinge
55:15
wie anwaltsgeheimnis etc . Du musst es dir halt einfach
55:18
angucken . Ich kann jetzt nicht altirecht
55:20
beraten und dann irgendwas nehmen , wo
55:22
meine Daten offen wie ein scheunentor irgendwo
55:24
liegen aber
55:27
es gibt am markt tatsächlich mittlerweile wirklich
55:29
wirklich ganz vernünftige
55:32
dinge , und was ich schon glaube weil du mich nach der
55:34
sicherheit meines jobs gefragt hast
55:36
ich glaube , dass juristen
55:39
, die sich mit k i beschäftigen , euren
55:42
deutlichen wettbewerbsvorteil haben werden
55:45
gegenüber den juristen , die sich nicht
55:47
mit k i beschäftigen .
55:48
Ja , auf jeden fall , weil
55:50
euch brauchen wir jetzt in zukunft
55:53
, also zumindest in unserer branche ist .
55:55
Das ist ja das , das ist ja das schöne an it
55:57
recht und datenschutz , das geht ja erstmal nicht weg
55:59
. Das ist fast noch besser als erbrecht
56:01
. Erbrecht gestorben wird immer .
56:03
Aber die technik geht auch immer weiter
56:05
. Ja , das geht auch nicht
56:07
mehr weg . Das stimmt , es hat mir
56:09
sehr viel Spaß gemacht man sieht eine zeit
56:11
, die ist verflogen . Wir
56:14
werden uns dem ein oder anderen thema noch mal
56:16
nähern und vielleicht sehr , sehr gern aufruf an die hörerschaft
56:18
hier , an euch da draußen
56:21
wenn euch ein thema wichtig ist , schreibt
56:23
uns auf sämtlichen kanälen
56:25
sind wir erreichbar . Was euch interessiert
56:28
, zu welchem thema wir den nikolai einfach nochmal einladen
56:30
sollen . Und dann , ach
56:33
so , vielleicht noch den hinweis wir konnten
56:35
nicht als dozent gewinnen für die
56:37
für den after work campus ja , da freue
56:39
ich mich auch schon sehr darauf , gründerzentrum
56:41
ausrichten . Ich weiß nicht , glaube , die
56:44
podcast folge kommt danach raus , oder so
56:46
mal gucken wir , was teilen können . Ja , wenn
56:49
nicht unbedingt auf unserer plattform mit dem nikolai
56:51
kontakt aufnehmen unter coventureai
56:54
, da findet man dich aber auch bei linken und
56:56
überall sonst den auch im zweifel in
56:58
den schornhuts dieser podcast folge . Die
57:01
nikolai . Letzte frage an dich und damit das
57:03
schlusswort für dich und für diesen podcast
57:05
stell dir vor , wir haben ein
57:07
plakat , und du darfst
57:10
irgendetwas darauf schreiben
57:12
, und dieses plakat kann jeder auf der welt sehen
57:14
. So riesig ist das . Was würdest du drauf
57:16
schreiben ?
57:24
ich glaube , ich würde drauf schraben . Habt keine angst , das
57:29
passt wunderbar zu ki , aber auch
57:31
zu allen anderen dängen . Irgendwie
57:35
haben wir bis jetzt immer alles hingekriegt
57:37
. Ich bin der festen überzeugung , wir kriegen es auch weiterhin
57:40
irgendwie gebacken , und
57:43
ich glaube , mit dieser positive einstellung solltest
57:45
du an dinge rangehen . Und
57:47
angst ist nie ein guter berater . Nur weil ich mich
57:49
vor irgendwas fürchte , ist sein zu lassen , weiß ich
57:52
nicht
57:54
. Gibt es viele gute andere gründesachen nicht
57:56
zu tun ? aber angst ist nie ein guter
57:58
berater das
58:00
lassen wir genauso stehen .
58:01
Danke , nikolai , für deine Zeit , herzlichen
58:04
Dank .
Podchaser is the ultimate destination for podcast data, search, and discovery. Learn More