#95 Are they watching us? Jonas Nay über sein Leben, K.I. und die Serie "Concordia – Tödliche Utopie"
Shownotes
In diesem Gespräch diskutieren Alex und Jonas das Konzept von Überwachung und Privatsphäre im Rahmen der neuen Serie „Concordia“. Sie erforschen die Idee einer utopischen/dystopischen Gesellschaft, in der Menschen freiwillig unter ständiger Überwachung leben. Es geht auch um die Rolle von Technologie in unserem Leben, die algorithmische Analyse persönlicher Daten und die möglichen Auswirkungen von KI in der Zukunft. Das Gespräch untersucht die Themen KI, Privatsphäre und die Rolle der Technologie in der Kunst. Die Moderatoren diskutieren das Potenzial von KI in verschiedenen Bereichen, wie Musikkomposition und Videobearbeitung. Sie berühren auch die Grenzen von KI bei der Nachbildung menschlicher Emotionen und Individualität. Das Gespräch wirft Fragen zu Privatsphäre und Überwachung im Zeitalter der KI auf. Die Moderatoren betonen die Bedeutung ethischer Richtlinien und Vorschriften, um einen verantwortungsvollen Umgang mit Technologie sicherzustellen. Hört rein! (Shownotes mit KI generiert;)
* Jonas auf Insta: https://instagram.com/jonas_nay
Und hier geht es zur neuen ZDF Serie: https://www.zdf.de/serien/concordia
* Bleib auf dem Laufenden und abonniere unseren Podcast auf Apple Podcasts, Spotify oder deiner bevorzugten Podcast-Plattform: https://tagewiediese-podcast.podigee.io
Hast du Fragen oder Feedback? Kontaktiere uns gerne oder folge uns auf unseren Social-Media-Kanälen. Wir wünschen viel Freude beim Zuhören und hoffen, dass dich diese Episode inspiriert und bereichert!
Über diesen Podcast: Auch wenn das Leben kompliziert ist, wie immer gilt: Es kommt darauf an, was man daraus macht!
Instagram: https://www.instagram.com/alexbroicher/
Facebook: https://www.facebook.com/alex.b.berlin https://www.facebook.com/BroicherAlexander/ TikTok: https://www.tiktok.com/@alexbroicher
Transkript anzeigen
00:00:00: * Musik *
00:00:03: Tage wie diese.
00:00:06: Alex Bräucher fragt sich und seine Gäste, was eigentlich gerade los ist.
00:00:12: Herzlich willkommen zu Tage wie diese.
00:00:18: Ich freue mich diese Woche außerordentlich auf meinen Gast, Jonas Neih.
00:00:22: Moin. - Freu mich aus.
00:00:24: Vielen Dank für die Einladung.
00:00:26: Wird der Name manchmal falsch ausgesprochen?
00:00:28: Nein. - So Nei kommt immer gerne mal.
00:00:31: Da wird es dann auch schnell zu Jonas Nei.
00:00:34: Jonas Nei.
00:00:36: Finde ich aber auch, klingt irgendwie das gut.
00:00:39: Klingt irgendwie professioneller, als ich bin.
00:00:41: Das hat mir gefallen.
00:00:43: Gleich tiefstabeln.
00:00:45: Man kann nicht mit vielen Namen, man kann auch Jonas Friedebogen sagen.
00:00:49: Richtig, den habe ich mir tatsächlich aber selber ausgewählt.
00:00:53: Als Kinderdarsteller noch.
00:00:55: Genau, für unsere Hörerinnen und Hörer sagt doch mal ganz kurz,
00:00:59: was es mit Jonas Friedebogen auf sich hat.
00:01:01: Damit auch die Leute, die jetzt nicht so gut recherchiert haben,
00:01:04: wir müssen da reinholen ins Pod.
00:01:06: Uns wurde damals als Kinderschauspieler,
00:01:09: ich war Kinderschauspieler einer Kinderserie beim NDR,
00:01:13: die hieß "Figging Z".
00:01:15: Und die hatten vorher die Pfefferkörner gemacht.
00:01:18: Das kennen jetzt vielleicht die einen oder anderen Zuhörer*innen auch.
00:01:21: Ich kannte das auch.
00:01:23: Die Pfefferkörner damals, die hatte ein bisschen Probleme mit anderen Kindern,
00:01:27: die ihre Telefonnummern rausgefunden haben.
00:01:30: Da gab es ja noch Telefonbücher und so.
00:01:33: Und "Nai" gab es halt auch.
00:01:35: Also wenn man weiß, dass ich aus Lübeck komme,
00:01:37: "Nai" gibt es dann auch nicht so oft.
00:01:39: Uns wurde damals wirklich von der Produktion nahegelegt,
00:01:42: falls die Serie ein Riesenhit wird,
00:01:44: dann legt euch mal einen anderen Namen zu, so ein gestern Name.
00:01:48: Die Serie wurde kein Riesenhit,
00:01:50: aber ich habe mich trotzdem für meinen Namen ein Riesenhit.
00:01:55: Ich fand dich toll.
00:01:57: Jonas hat nichts Verbotenes gemacht, er hatte einfach nur Pseudonyme.
00:02:01: Apropos Kinder, die die Telefonnummer rausfinden,
00:02:04: ich weiß nicht, hier ist irgendwie eine super Überleitung,
00:02:06: die sich hier so organisch ergibt.
00:02:08: Du spielst jetzt, gerade wo der Podcast rauskommt,
00:02:11: startet in der Mediathek eine neue Serie mit dir, "Concordia".
00:02:17: Und da finden ja Leute noch viel mehr Raussatztelefonnummern.
00:02:20: Willst du uns, will ich mal kurz, abholen, um was es bei "Concordia" geht?
00:02:25: Ja, "Concordia" ist eine Serie, die läuft im ZDF oder in der Mediathek, richtig?
00:02:30: In dieser Serie geht es letztlich um eine, ja man weiß es nicht,
00:02:33: Dystopie oder Utopie, auf jeden Fall ein utopisches Szenario,
00:02:37: sage ich mal, dass in Schweden ein Pilotprojekt gestartet ist,
00:02:42: dass eine Stadt in kompletter Überwachung funktioniert,
00:02:47: als ein Pilotprojekt.
00:02:49: Diese Stadt heißt "Concordia", die es also Namens geben für die Serie.
00:02:52: Und wir lernen diese Stadt kennen als Pilotprojekt, wo Menschen leben,
00:02:55: die sich freiwillig 24/7 auch in Privaträumen der Überwachung
00:03:00: zur Verfügung stellen und dadurch sich aber ein besseres,
00:03:04: sichereres, schöneres, auch nachhaltigeres Leben erfüllen wollen.
00:03:10: Und wir starten in dieser Serie an einem tragischen,
00:03:16: bei einem tragischen, oh Gott, ich kann gerade nicht denken,
00:03:20: Ereignis, danke.
00:03:23: Ein tragisches Ereignis ist passiert, ein Mensch ist gestorben
00:03:27: und es wird versucht, rauszufinden wie so.
00:03:30: Und gleichzeitig ist es ein denkbar ungünstiger Zeitpunkt,
00:03:33: weil das nächste Pilotprojekt irgendwo in Ostdeutschland
00:03:37: nach dem Vorbild "Concordias" starten soll.
00:03:40: Und das ist natürlich eine sehr, sehr schlechte PR für diese Stadt.
00:03:44: Und dieses neue Pilotprojekt in Deutschland soll dann aufgezogen werden.
00:03:49: Es kommt aber ein dramatisches Ereignis nach dem anderen.
00:03:53: Man versucht sowohl in diese Strukturen dieser Stadt
00:03:56: und der Entstehung der Stadt einzutauchen als auch in Strukturen,
00:03:59: die sich so als Opposition zu dieser Überwachungsbewegung dann ergeben.
00:04:02: War jetzt kein Elevator-Pitch.
00:04:06: Eigentlich muss man das in zwei Sätzen hinkriegen.
00:04:09: Nein, bei uns nicht. Wir haben ja ein bisschen mehr Zeit.
00:04:12: Wir haben ja nicht nur zwei Minuten.
00:04:15: Erst mal vielen Dank, um uns da ein bisschen abzuholen.
00:04:18: Da fallen mir 1000 Punkte an, über die ich mit dir reden muss.
00:04:21: Erst mal die Frage, du hast am Anfang gesagt, eine Utopiedistopie.
00:04:24: Glaubst du, das ist noch eine Utopie oder sind wir eigentlich schon fast da?
00:04:28: Nein, also das Szenario, was dort gezeichnet wird,
00:04:32: ist insofern eine Utopiedistopie als das.
00:04:35: So ein Pilotprojekt, wo sich Menschen freiwillig in die komplette Überwachung,
00:04:43: also der kompletten Überwachung stellen,
00:04:46: freiwillig in eine Stadt ziehen, wo sie wissen, sie werden,
00:04:49: nicht nur in öffentlichem Raum, sondern auch in ihren Privatreumen überwacht
00:04:54: und durch eine KI analysiert und dementsprechend gestaltet sich ihr Leben.
00:04:58: Das gibt es nicht.
00:05:00: Es gibt natürlich alle, dass wir durchaus sehr, sehr gläsern geworden sind
00:05:05: in den letzten Jahren und Jahrzehnten, gerade was jetzt irgendwie so Tech-Riesen angeht
00:05:09: und unser, ich sag mal, unser Suchtmaschinen- und Social-Media-Verhalten.
00:05:14: Und dass es natürlich auch autokratische Staaten gibt,
00:05:17: die schon sehr viel mit KI-basierter Überwachung arbeiten.
00:05:20: Aber den Fall, den Sie dort entwerfen, kein Problem,
00:05:25: dafür können wir ja schneiden.
00:05:30: Das schneide ich nicht.
00:05:32: Nein, das bleibt einfach drin.
00:05:34: Dann lassen wir, meine Klingeltür, lassen wir auch alle drinnen.
00:05:37: Bitte.
00:05:38: Genau.
00:05:39: Dann wissen die Menschen auch, wir haben nichts.
00:05:40: Das ist KI-Lifestyle hier.
00:05:42: Wir sind immer live und wir werden immer, ja, ich war mal in Überwachungsofficein.
00:05:46: Genau, das ist einfach nur um den Leuten zu zeigen kurz.
00:05:50: Wir haben was falsch gesagt, wir kriegen jetzt wieder auf die Fresse.
00:05:53: Das könnte sein, ja, das ist die Redaktion, ne?
00:05:56: Das ist der Deep State.
00:05:58: Deep State Riverside.
00:06:00: Ja, also du reißt hier in jedem Nebensatz 100 Riesentheben auf.
00:06:05: Du hast gesagt, autokratische Staaten warst jetzt aus rot-china vermieden, ja.
00:06:09: Der gibt es ja schon auch den sehr berühmt gewordenen Social-Score.
00:06:14: Also der ist zwar angeblich nicht in den Innenräumen,
00:06:17: aber wenn du auf der Straße, dann werden auch Sachen beurteilt,
00:06:20: wenn du an Müll trennst, ob du wirklich zur Arbeit gehst,
00:06:23: ob du nicht fluchst, ob du nicht deinen Kaugen auf die Straße spuckst.
00:06:26: Und dafür bekommst du einen Social-Score, der dann darüber entscheidet,
00:06:30: ob du Social reisen darfst, ob du einen Zugticket kaufen darfst
00:06:33: oder generell andere ganz normale eigentlich freiheitliche Sachen tun darfst.
00:06:38: Das ist natürlich in einem autokratischen oder eine Diktatur ohnehin schwierig.
00:06:42: Die Frage, was ist da Freiheit?
00:06:44: Aber ja, das hast du sicherlich gemeint.
00:06:46: Das ist auch in Italien eine Pilotstadt, die sowas ähnliches mal probiert hat.
00:06:52: Nicht in den Innenräumen.
00:06:55: Und die finden das sogar ganz gut die Leute,
00:06:59: weil die sagen, dadurch gibt es halt mehr Ordnung im öffentlichen Raum.
00:07:02: Und wofür wird das zur Verfügung gestellt?
00:07:05: Also läuft das auch per Gesichtserkennung?
00:07:07: Nein, so advanced ist es nicht.
00:07:10: Ich glaube, es ist auch frei weniger Basis.
00:07:13: Alles andere würde, glaube ich, ja Demokratie auch nicht hergegeben.
00:07:16: Aber die Leute, die mitmachen, das sind wahrscheinlich auch Ordnungsverrate,
00:07:19: die ja mitmachen, die finden das eigentlich ganz gut.
00:07:22: Wie gesagt, es wird halt nicht mehr schwarz gefahren.
00:07:24: Es werden halt viele so kleine so Bagatelldelikte,
00:07:27: kannst du damit dann ausknipsten.
00:07:29: Aber natürlich zu Kosten der Freiheit.
00:07:32: Ja, deswegen habe ich mich mit dem Begriff Utopia oder Distopia so schwer getan bei Concordia,
00:07:38: weil das ist das Tolle, finde ich wirklich.
00:07:41: Ich habe auch, das muss ich jetzt auch mal für alle Zuhörer*innen am Rande sagen,
00:07:44: ich habe auch wirklich keine große Rolle bei der Serie.
00:07:47: Also ich tauch relativ späteilig erst auf, aber dann mit voller Kraft.
00:07:52: Also das heißt, ich kann auch über diese Serie als ehrlicher Fan reden.
00:07:55: Ich habe sie natürlich ganz gesehen.
00:07:57: Und ich gucke vielen anderen meiner Kolleg*innen sehr, sehr gerne bei der Serie zu.
00:08:01: Und ich habe sie auch damals, als ich sie gelesen habe, schon,
00:08:04: fand ich sie unheimlich faszinierend und ähnlich wie dir.
00:08:06: Alex ging es mir auch mit sehr, sehr viele Fragen.
00:08:09: Während des Prozesses irgendwie gekommen sind und man sehr, sehr viele Fässer im Kopf aufmacht.
00:08:14: Und ich glaube, es hätte sehr, sehr viele Möglichkeiten gegeben,
00:08:17: diese Serie komplett zu versauen.
00:08:19: Also was ich nämlich an der Serie wirklich gut finde,
00:08:23: ist, dass sie relativ wenig wertet und dass sie so einen konkreten Fall sich nimmt.
00:08:30: Also das ist schon so ein konkret gebautes Konstrukt,
00:08:33: in dem es nämlich ähnlich wie in dem Pilotprojekt,
00:08:36: von dem du jetzt sprachst, was ich gar nicht kenne,
00:08:38: es wirklich darum geht, Menschen dafür zu begeistern.
00:08:42: Weil du sagst, ja, auf Kosten der Freiheit in Concordia,
00:08:46: wir sehen auch immer wieder so Einspieler dieser Werbevideos, womit sie werben für dieses,
00:08:50: geht es schon auch darum, dass Menschen aus einer gefühlten Unsicherheit kommen,
00:08:54: aus unsicheren sozialen Verhältnissen, aus unsicheren ökonomischen Verhältnissen
00:08:59: oder medizinischen Hilfe brauchen wir auch immer und da auf KI gestützte Systeme setzen.
00:09:05: Und das Menschen also freiwillig sich entscheiden,
00:09:08: in diesem Überwachungs-State ist es ja nicht,
00:09:11: in dieser Überwachungsstadt zu leben und das nicht unbedingt
00:09:15: als Einschränkung ihrer Freiheit wahrnehmen.
00:09:19: Und das fand ich schon ein sehr, sehr spannendes Mindplay.
00:09:23: Also das hat mich schon sehr zum überlegen,
00:09:25: das hat mich wirklich ehrlich zum überlegen gebracht,
00:09:27: weil wir alle wissen ja durchaus auch schon, glaube ich,
00:09:30: die wir irgendwie Technik zu unserem Vorteil nutzen,
00:09:34: ja schon auch, dass wir dafür eine gewisse Transparenz freigeben,
00:09:38: die man vielleicht jetzt so in der verbalen Kommunikation
00:09:42: oder über sich so im öffentlichen Raum vielleicht nicht teilen würde,
00:09:44: teilt man dann doch irgendwie und auch mit entweder einem Algorithmus
00:09:50: oder Menschen, die irgendwo in der Überwachung sitzen,
00:09:52: die man persönlich nicht kennt,
00:09:53: also es ist ja eigentlich ein total unmenschlicher Vorgang für einen selbst.
00:09:56: Also eigentlich müsste es ja Riesenhürden geben,
00:09:58: aber wir machen es doch, viele von uns machen es auch inklusive mir,
00:10:01: doch relativ sagen- und klanglos.
00:10:05: Und dann fand ich das tatsächlich sehr, sehr spannend,
00:10:08: diese Frage nach wie viel, wenn ich das bewusst entscheide
00:10:12: und mich bewusst dafür entscheide, was können denn eigentlich
00:10:15: die Gründe dafür sein und wie hoch sind die Hürden denn eigentlich wirklich
00:10:18: und wie heterogen ist auch eine Gesellschaft,
00:10:21: gibt es Gruppen, die sagen würden, Entschuldigung,
00:10:24: mir geht es so mies an so vielen Ecken und Kanten,
00:10:27: so viele Parameter stimmen in meinem Leben nicht,
00:10:30: da lasse ich mich lieber überwachen und steige sozial auf,
00:10:34: ökonomisch auf, für mich sicherer, all diese Thematiken.
00:10:37: Also das ist sehr, sehr wenig schwarz und weiß diese Serie,
00:10:40: was mich total gereizt hat.
00:10:43: Ja, du hast so recht gesagt, es ist wirklich gut geworden, die Serie
00:10:48: und du hast ein tolles Team um dich rum gehabt,
00:10:51: hast du ja auch schon gesagt, es ist auf 20.
00:10:54: Hab ich noch nicht gesagt, muss ich aber sagen, ich hatte ein tolles Team.
00:10:57: Ich gucke meinen Kolleg*innen sehr gerne zu, aber auch beim Team
00:11:00: spricht man ja auch gerne von den Leuten hinter der Karare.
00:11:03: Genau, der ist geschrieben, hat auch geschrieben,
00:11:05: alles Leute, die einen wahnsinnigen Track-Record haben.
00:11:08: Das ist mir wichtig, die waren toll.
00:11:11: Der Lobhuddlei-Podcast, jetzt neu.
00:11:15: Die kriegen viel zu wenig Lob, ganz ehrlich.
00:11:18: Da hast du recht, da hast du recht.
00:11:20: Aber zurück zu deinen Anmerkungen, also du hast wahrscheinlich damit
00:11:23: auch Social Media gemeint, wo man natürlich bewussterweise
00:11:26: seine privaten Daten im Grunde verkauft, dafür, dass man so ein Dienst nutzen kann.
00:11:29: Wofür man das eigentlich nutzt, weiß man ja auch nicht,
00:11:32: dass dann bunte Wildchen von einem da stehen.
00:11:34: Das tut ja eigentlich eine Website auch oder ein anderes Tool,
00:11:37: aber irgendwie ja, sind wir alle ja in diesem Game verfangen.
00:11:40: Wir auch, mich nervt es auch total, aber man spielt hier irgendwie mit.
00:11:45: Ich bin irgendwie ganz froh, dass das iPhone so eine ganz gute Privacy-Regelung hat.
00:11:49: Ich weiß nicht, ob du das kennst, ob du iPhone-Nutzer bist,
00:11:51: da hat man es ja so, dass man zum Beispiel keine Nachverfolgungen hat.
00:11:55: Man muss ja auch schon die Cookies von Social Media Anbietern nicht weitergeführt werden,
00:11:58: auch wenn du auf andere Webseiten gehst, kannst du zufalten, maskieren.
00:12:03: Ja, aber man muss dann schon auch, ja, weil man muss ja irgendwie schon auch selber
00:12:07: trotzdem alle dem noch sehr aktiv werden.
00:12:09: Also ich meine, ich nutze auf meinem iPhone trotzdem irgendwie
00:12:12: ausschließlich die Google Suchmaschine.
00:12:15: Und diese, alle Dinge, die ich bei Google eingebe, ich nutze die Amazon-Apps.
00:12:19: All diese Dinge, ich gucke über Amazon, über Netflix, gucke ich irgendwie meine,
00:12:23: konsumiere ich Medien.
00:12:26: All das, ich mal, und ich nutze Instagram, TikTok nutze ich irgendwie nicht,
00:12:31: aber ich nutze Instagram, ich habe früher Facebook, ich nutze all diese Sachen.
00:12:35: Ich weiß ja schon, was, egal welches, welches die weiß ich nutze,
00:12:40: weiß ich ja, dass so Techiganten wie Google oder Amazon so unsagbar viel von mir wissen.
00:12:46: Also ich sehe es an meiner Timeline, ich sehe daran, wie gut sie meinen Interessen kennen.
00:12:51: Und ich finde es manchmal echt, ja, und ich finde es manchmal richtig gruselig
00:12:56: und manchmal muss ich ehrlicherweise sagen, guilty pleasure, ich finde es manchmal auch schön,
00:13:01: weil ich mag, ja, absurderweise, ich bin zum Beispiel so ein YouTube-Gucker.
00:13:07: Und ich habe meine ganze Timeline bei YouTube, also ich scroll da wirklich durch,
00:13:11: weil ich so, ich gucke immer so irgendwelche Technik, ich bin so ein Techniknaht,
00:13:15: ich gucke immer irgendwelche Reviews über neue Kameras, die rauskommen und Schnitttechniken in DaVinci Resolve
00:13:22: und ganz viele neue, also ich bin auch so im AI und KI-Ding,
00:13:28: bin ich so als Tontechniker total drin, weil ich kritisiere noch Filmmusik-Komposition
00:13:33: und das heißt ich setze mich ganz viel mit so was auseinander, lange Räte kurzer Sinn.
00:13:36: Am Ende gefällt mir das, was mir YouTube anbietet, aufgrund meines Seeverhaltens,
00:13:41: also algorithmische Analyse meines Seeverhaltens, gefällt mir das ganz gut.
00:13:45: Und ich bin manchmal richtig, richtig genervt, wenn ich über einen anderen Google-Account drin bin
00:13:49: und merke, zum Beispiel über meinen Band-Account, also ein Band hat auch einen Google-Account,
00:13:53: wenn ich darüber dann drin bin und merke, das ist wirklich total, das gefällt mir ja alles gar nicht so.
00:13:59: Und ich war auch mal gefangen, auf Instagram war ich mal gefangen in so einem Doom-Scrolling,
00:14:03: das war so während Corona habe ich sehr, sehr viel irgendwie mich, ich glaube wie viele ehrlicherweise,
00:14:09: irgendwie so als Virologe in Spä, versucht mich zu bilden und irgendwie rauszufinden,
00:14:15: was kommt da ein Jahr von zu, was passiert da eigentlich, die gesamte gesellschaftliche Tamatik, Pipapo,
00:14:19: irgendwann, und dann kam auch der Ukraine-Krieg, wo man sich informiert hat oder ich mich zumindest,
00:14:24: und irgendwann merkte ich so, boah, meine Timeline macht mir unsagbar schlechte Laune
00:14:29: und dann habe ich wieder gewechselt zum Account von meiner Band auf Instagram
00:14:34: und dann hatte ich wieder wahnsinnig gute Laune, weil ich habe mich die ganze Zeit nur noch mit Musik auseinandergesetzt
00:14:38: und so, kram. Ja, insofern, also das, ne, die Analyse von uns als Menschen, ich habe da mit Pudeldame
00:14:45: mal ein Song drüber geschrieben, manchmal kann man ja auch das Algorithmische analysieren,
00:14:50: seiner selbst durchaus wertschätzen, das ist natürlich nur ein minimaler Prozentsatz,
00:14:54: aber ein bisschen ist es ja schon so.
00:14:56: Stimmt, wie heißt der Song damit, also erstmal, Pudeldame ist deine aktuelle Band,
00:15:00: deine einzige Band, oder machst du, bist du auch eine Pudeldame, bist du seit 2015, seit 2016,
00:15:06: jetzt genau, ja. Also mit David Grabowski, der Gitarist von Pudeldame,
00:15:11: mit dem mache ich schon Musik seit Schulzeit, mit dem mache ich auch Filmmusikkompositionen,
00:15:16: also wir komponieren Scores für Filme und Serien schon sehr lange, genau, also Pudeldame gibt es ewig
00:15:21: und der Song heißt Algorithmo. Algorithmo, Algorithmo, ja, sehr gut, das klingt ja schon wie,
00:15:29: wir verlinken ja wie immer in den Shownotes, wer haben wir jetzt schon gehört,
00:15:32: du bist bei Insta nicht bei Tiktor, wir verlinken deinen Insta-Account
00:15:35: und vielleicht auch mal die Pudeldame, darfst du als Spotify sein oder?
00:15:39: Ja, ja, natürlich, ja, irgendwas, Pudeldame, alles was kein Hund ist, werden wir sein, das wird man finden, ja.
00:15:46: Bei mir auf Insta passiert bei mir nicht so viel, so als Schauspieler, ich spät Konkordia,
00:15:52: schon auch einmal Pause und so, dass alle wissen, da kommt was, ansonsten, genau,
00:15:57: wenn ich eher so, ist eher so Konsumerverhalten, wenn ich eher so bisschen als Spion unterwegs
00:16:02: und guckst du, was so andere vor sich geben.
00:16:04: Aber du, du machst den, du betreibst den Account selber oder macht das so?
00:16:07: Ja, das bin ich persönlich, ja, aber ich gucke einfach nur alle Jubeljahre rein, so.
00:16:13: Echt war ja, das ist krass.
00:16:15: Okay, gut, ja, dann wissen wir, also du hast jedenfalls schon gesagt, du nutzt KI auch für deine Musik
00:16:21: und hast gesagt, auch für es als Tontechniker und zum Mastern oder zum Verbessern von Ton,
00:16:26: wie stelle ich mir das vor?
00:16:28: Ich wollte dich eigentlich fragen, ob du auch schon mit ChatGPT arbeitest,
00:16:31: aber dann arbeitest du ja schon mit viel advancederen Systemen wahrscheinlich?
00:16:34: Also ich habe für Algorithmo tatsächlich ChatGPT mal gefragt, weil wir machen immer so ziemlich,
00:16:39: wenn man Pudeldame findet, dann sieht man, wir machen ziemlich abgefahrene Videoclips immer zu unseren Singles
00:16:44: und Algorithmo ist ja so eine Art Liebeserklärung an seinen Algorithmos,
00:16:49: der ein besser kennt als jeder andere Mensch und man ihn deswegen so wahnsinnig wertschätzt.
00:16:53: Und da habe ich tatsächlich ChatGPT mal gefragt, was er so, oder sie, ich weiß nicht, was es so...
00:16:59: Es ist schon geil, wie du das Personalisierter, also personifiziert hast.
00:17:04: Ja, es gibt doch jetzt eine Voice-Edition, das ist ja eine Frau, oder?
00:17:08: Da gab es auch diese Scarlett Johansson Klage irgendwie wegen der Stimme, also dann...
00:17:12: Du kannst die Stimmen wechseln, du kannst die Stimmen wechseln.
00:17:14: Aha, okay, verstehe, da war es nur eine Stimme.
00:17:16: Du merkst schon an meinem Monolog, ich habe keine Ahnung, also ChatGPT habe ich einmal für Algorithmo gefragt,
00:17:22: was die KI denn so vorschlagen würde als Videoclip und das war so kacke da,
00:17:27: haben wir da was anderes gemacht? Das war noch nix.
00:17:29: Aber gut, das entwickelt sich natürlich rasant.
00:17:31: Nein, ich nutze ChatGPT tatsächlich in meinem Leben bisher noch nicht generell so...
00:17:36: Ich glaube, dass das irgendwann ganz doll Teil unseres Lebens wird, so wie Smartphones auch,
00:17:41: dass man irgendwie so digitaler Agenten hat, in irgendeiner Form,
00:17:44: ob als Knopf im Ohr oder als Sonnenbrillen oder whatever, wir werden es sehen.
00:17:50: Ich glaube, das wird kommen, aber das ist...
00:17:53: Die Sonne gibt es ja schon, ne?
00:17:55: Ja, von Ray-Ban, ne?
00:17:56: Genau, genau.
00:17:57: Die ist glaube ich noch nicht so doll.
00:17:59: Ich hatte sie zum Testen mal hier, ich hatte sie nicht gerafft.
00:18:01: Du bist ja Technik Nerd, wenn du willst, schicke ich sie dir mal, dann kannst du sie mal testen.
00:18:04: Ja, ich bin... keine Ahnung, ich bin wirklich so ein bisschen vorsichtig, was das so...
00:18:10: Was man sich auf den Kopf setzt, meinst du.
00:18:15: Ja, vielleicht ich bin kein vorsichtiger Mensch, wenn ich, wie gesagt, wenn ihr so,
00:18:22: ich bin auch nicht immer in irgendeinem VPN Server unterwegs, um mich zu verschleiern,
00:18:26: das nicht, aber so wissentlich zu sagen, also ich bin zum Beispiel noch so Old School hier,
00:18:30: ich musste jetzt gerade mein Tape von der Kamera abmachen, weil sonst, ich hab das auch
00:18:35: den Schiebel, ich hab ja auch den Schiebel-Reclerecler.
00:18:37: Genau, ich tape noch die Kamera zu, also so ein ganz verzweifelter Versuch von, ich schränke
00:18:40: mal einmal kurz ein, so, obwohl man weiß, das Handy liegt hier daneben und kann alles
00:18:44: mithören, aber so.
00:18:45: Ja, und sehen.
00:18:46: Ja, genau, richtig.
00:18:47: Aber bewusstermaßen jetzt zu sagen, irgendwie, keine Ahnung, ich hol mir jetzt einen Alexa
00:18:53: Dings oder so eine Sonnenbrille und hab einen Agenten, der irgendwie alles mitkriegt, vor
00:18:57: allen Dingen, was ich am aller, aller Schwierigsten finde und überhaupt nicht mag, ist, dass
00:19:01: ich das Gefühl habe, jemand weiß, wo ich wann bin.
00:19:04: Und ich weiß mein Navigationssystem, Google weiß das irgendwie, aber da laufe ich ja unter
00:19:09: dem Nordern Leitz mit Google Account.
00:19:10: Nein, jetzt weiß es Google auch, verdammt, jetzt bin ich aufgesogen.
00:19:14: Jetzt bist du durch.
00:19:15: Ja, jetzt.
00:19:16: Aber genau, also das kommt für mich nicht so richtig in Frage.
00:19:19: Aber was voll die, ach genau, Chatchi Biti nutze ich nicht, aber ich nutze tatsächlich
00:19:23: in der Tontechnik ganz vier so algorithmisch basierte Hilfstools.
00:19:28: Das wird immer mehr und letztlich sind das oft Aufgaben, die man als Mensch irgendwie
00:19:33: auch erfüllen kann.
00:19:34: Ich weiß nicht, man, viele kennen es vielleicht so aus Photoshop oder so, aus irgendwelchen
00:19:38: Bildbearbeitungsgeschichten und so.
00:19:39: Man kann natürlich jeden Pickle einzeln wegdrücken so oder man kann das halt irgendwie durch
00:19:44: ein Algorithmus machen lassen.
00:19:45: Oder ja, wenn es ein bisschen nerdiger wird, so die ganze Freistellung, wenn man mit einem
00:19:49: Greenscreen arbeitet, whatever oder depthmap, da wird es dann richtig nerdy.
00:19:53: Und so gibt es halt in der Tontechnik auch.
00:19:55: Man kann natürlich den Equalizer, also die Frequenzen alle per Hand einstellen oder wenn
00:20:03: es so algorithmische Aufgaben sind, also im Sinne von, das sind regelbasierte, sich wiederholende
00:20:09: Total Recall Vorgänge, kann man sie eigentlich dann auch durch ein analysierendes Plug in,
00:20:15: selbstlernendes Plug in übernehmen lassen.
00:20:17: Oder es geht tatsächlich auch weiter.
00:20:19: In der Filmmusik habe ich schon ab und zu einen digitalen Orchestrator genutzt.
00:20:24: Das entwickelt sich auch sehr krass.
00:20:25: Also dass man jemanden, ein Algorithmus sozusagen, Musik, die man nur drei oder vier Stimmig
00:20:30: einspielt, dann für ein Orchester aussetzen lässt in die verschiedenen Stimmen.
00:20:33: Zu solchen Geschichten gibt es was wirklich, ja letztlich ist das ja, also wenn man, wenn
00:20:39: Hans Zimmer da irgendwo in LA sitzt, dann lässt er das auch einen Assistenten machen,
00:20:43: einen persönlichen, Menschen einen Assistenten.
00:20:45: Aber nicht alles davon ist jetzt kreative, kongeniale Zusammenarbeit.
00:20:52: Einiges davon sind tatsächlich auch irgendwie so gelernte Abläufe.
00:20:57: So was kann eine KI dann übernehmen, kann einen dabei unterstützen.
00:21:01: Da gibt es ja auch so eine ganz populäre App, die Musik generieren kann.
00:21:05: So wie Bruno, Sumo oder so ähnlich, in dem man gibt man nur irgendwie einen Titel rein
00:21:09: und sagt irgendwie, was man haben will.
00:21:11: Ein Freund von mir, der Rettungsschwimmer ist, der sollte jetzt Hubschrauberrettungsschwimmer
00:21:16: werden, also auf Upgraden.
00:21:17: Dann haben wir Freunde von ihm ein Song zu machen, das war gar nicht so schlecht.
00:21:21: Und du hast ja vielleicht auch mitbekommen, es gibt jetzt den ersten KI-generierten Song
00:21:25: ja auch in den Charts.
00:21:26: Ich bin verliebt in einen Talahorn.
00:21:28: Aha, nee, das habe ich nicht mehr bekommen.
00:21:30: Ich habe diese ganze Drake, Henry Glamar und so küsste da irgendwie mitgekriegt damals.
00:21:35: Hast du echt Deutschsprachigen?
00:21:36: Und ist das gut?
00:21:38: Nein, du sagst da ja auch froh.
00:21:40: Nein, der macht so ein bisschen auf 50er Jahre Schlager getrömt.
00:21:44: Ja.
00:21:45: Und da sind wir doch beim Punkt, oder?
00:21:48: KI-basierte Kunst, ja genau, das ist halt reine Immutation.
00:21:53: Das machen ja viele Menschen auch.
00:21:54: Also damit werden dann Menschen, die nur kopieren in der Kunst sozusagen, werden dann
00:21:59: vielleicht obsolet irgendwann.
00:22:01: Aber damit sind wir eigentlich genau beim Punkt.
00:22:04: Also wenn es jetzt darum geht, also für mich betrifft das halt viel, wenn wir jetzt davon
00:22:09: sprechen, wie nutze ich KI in der Soundtechnik oder in der Komposition oder beim Videofilm
00:22:15: oder Songtexten, wie auch immer, es sind halt irgendwie Hilfstools, die auch richtig wertvoll
00:22:21: sein können, weil die natürlich eine unheimliche, aus einer unheimlichen Weite an Ressourcen
00:22:28: sich bedienen kann, viel mehr als Menschen das könnten.
00:22:30: Also die können ja basically, wenn du eine richtig gute KI-gestützte System hast, dann
00:22:35: kann sich das ja aus der gesamten Musikgeschichte, alles was es online gibt, bedienen so.
00:22:39: Also da kommt ja ein Mensch überhaupt nicht in seinem Leben, kann so viel Musik gar nicht
00:22:43: konsumieren und davon lernen.
00:22:44: Also insofern, genau, es gibt da Bereiche, aber nicht, dass du trotz, das ist halt genau,
00:22:49: das Schöpferische ist sehr begrenzt, würde ich sagen.
00:22:52: Ja, genau.
00:22:53: Ja, da gibt es auch einen lustigen Roman zu einer Komödie, der heißt "Welt hitte 2.0",
00:22:58: so ein nördiger Programmierer, genau, das macht nämlich alle Hits übereinanderlegt
00:23:02: und morgens ist das Ding fertig und schicke ich dir mal, wenn du magst.
00:23:07: Das ist ein Film oder was?
00:23:08: Und?
00:23:09: Und "Wüstern Hitt"?
00:23:10: Das ist ein Buch.
00:23:11: Ja, her damit.
00:23:12: Fisch gut.
00:23:13: Ja, her damit.
00:23:14: Ja, nee, aber das ist so alles hochinteressant und was da passiert, du hast ja recht, es
00:23:21: imitiert ja, also KI imitiert ja eigentlich im Grunde nur menschliche Kommunikation, auch
00:23:26: chat GPT, der vor der so viele Leute Angst haben, dass es den Job ruiniert, ist ja letztendlich
00:23:31: nur eine Simulation von Menschlichkeit und von menschlicher Kommunikation.
00:23:35: Gut, das gelingt ihm irgendwie ganz passabel, muss man sagen, aber wer weiß.
00:23:40: Ja, und wir sind ja als Menschen, glaube ich, auch totale Kopiekünstler.
00:23:44: Also wir lernen ja in unserer gesamten Entwicklung vor allen Dingen vom Kopieren unserer Eltern,
00:23:48: unserer Sozialisation von allem um uns herum.
00:23:51: Also insofern, es gibt ja auch glaube ich, ich glaube, das wissenschaftliche Konsens eigentlich,
00:23:54: dass unser Denken auch algorithmisch funktioniert.
00:23:57: Also insofern kann man auch immer argumentieren, na ja gut, also guck uns Menschen an, wir
00:24:01: machen es jetzt auch nicht groß anders.
00:24:02: Ich glaube, dass wir deswegen haben wir auch keine Chance, wir haben niemals eine Chance
00:24:07: gegen eine KI, die, wenn es jetzt um reine Wissen, um reine Wissenanholfung zum Beispiel
00:24:12: angeht, damit keine Chance.
00:24:13: Ich meine, wenn sich eine KI aus Wikipedia bedienen kann, vielleicht, kein Mensch kommt
00:24:17: hier gegen Wikipedia an, ist ja klar.
00:24:19: So, rein von der Masse her, wenn es um die Schnelligkeit geht von Rechenprozessen, ja,
00:24:25: um Gottes Willen, also da kannst du der beste Kopfrechner der Welt sein, kommt es halt
00:24:29: gegen ein Prozess auch nicht an, so ist halt irgendwie so.
00:24:33: Und man kann argumentieren, wir lernen ja auch nur durch Kopie mal so.
00:24:38: Ja, durch Imitation, ne?
00:24:40: Also wenn eine Ente hinter der Entenmutter herläuft und guckt, strömt und imitiert die
00:24:45: das, was sie für ihr Leben braucht, das ist sozusagen in unserer DNA.
00:24:49: Total.
00:24:50: Aber das hat halt auch seine Grenzen.
00:24:52: Also weil, ich glaube, wir Menschen sind schon auch von dem total fasziniert, was Menschen
00:24:56: dann doch individuell macht.
00:24:58: Genau.
00:24:59: Und in der Kunst ist es ja auch so.
00:25:01: Also zumindest, ich glaube, es geht den meisten Menschen so, dass sie in der Kunst etwas suchen,
00:25:06: was so ganz typisch menschlich ist und individuell.
00:25:09: Und das sind, glaube ich, aus meiner Erfahrung als Künstler ist es eigentlich eher emotionale
00:25:14: Vorgänge und weniger.
00:25:15: Und die sind dann nämlich nicht algorithmisch, die sind ja chemisch im Runde.
00:25:19: Biochemisch.
00:25:20: Biochemische Vorgänge.
00:25:21: Ja, wirklich, Emotionen entstehen ja letztlich durch Hormone und Ausschüttungen und wie
00:25:26: auch immer.
00:25:27: Und ich glaube, das kriegt halt eine KI nicht hin.
00:25:31: Also das kann man natürlich auch irgendwie komplett random irgendwie programmieren.
00:25:37: Man kann verhalten, zu weisen, sicherlich irgendwie, man kann die in Bahnen lenken,
00:25:40: man kann schon sagen, eine KI soll sich meinetwegen wütend entscheiden.
00:25:45: Also man kann es ja alles vorzeichnen und sozusagen Denkstrukturen vorzeichnen und
00:25:52: sagen, meinetwegen um 9 Uhr morgens bist du auf dem Leistungshoch und da hast du erst
00:25:56: mal tellst dir gute Laune und entscheidest positive.
00:25:58: Also man kann ja alles nachbauen, aber dieses Impulsive, was wir Menschen haben bei unserer
00:26:05: Entscheidungsfindung, dieses Emotionale, das ist halt ultraindividuell und das kriegst
00:26:09: du durch, das kannst du ja nicht für jeden Menschen irgendwie eine KI bauen.
00:26:14: Und letztlich interessiert das dann auch kein.
00:26:15: Genau, also du hast recht gesagt, es kommt ja diese emotionalisierten Reaktionen, die
00:26:21: werden ja gerade gebaut bei KI, um es eben menschlicher zu machen und ich kann mir vorstellen,
00:26:25: dass es dann für Call Center Agents und Chatbots und Datingbots oder so wahrscheinlich gut
00:26:30: ist, aber ich glaube, wie du schon sagst in der Kunst, kann es ja letztendlich nur kopieren.
00:26:35: Wobei, was du gerade gesagt hast, wir lernen ja durch Imitation oder durch Kopieren, es
00:26:39: gibt ein wunderbares Buch, ich weiß nicht, ob du das kennst, das heißt Steel Like an
00:26:43: Artist.
00:26:44: Oh ja, da hab ich tatsächlich, also ich kenn's nicht ganz, ihr habt das tatsächlich auch
00:26:47: ein.
00:26:48: Ja, aber das ist so interessant, weil das zeigt nochmal, dass auch alle großen Künstler
00:26:52: natürlich als die jungen war, die Vorbilder hatten.
00:26:54: Man kommt ja nicht als sechsjähriger als Picasso zur Welt und die hatten auch Vorbilder und
00:26:59: die haben am Anfang auch erst mal den Stil ihrer Vorbilder, nicht kopiert, aber nachgeahmt
00:27:04: oder verschiedene Stile, bis sie erst ihren eigenen Stil daraus entwickelt haben und der
00:27:08: war dann total unik.
00:27:13: Auch jemand wie David Lynch oder so hatte Vorbilder, der jetzt sozusagen für vielen Vorbilder
00:27:15: an Individualität und individueller Kunst und Expression ist und deswegen glaube ich,
00:27:20: das ist ganz normal, aber dieser Transfer, der dann in dir passiert, als Mensch im Kopf
00:27:26: oder in Gefühlen, wo immer es passiert, wie du gerade dargelegt hast, das kann die Maschine
00:27:31: halt nicht.
00:27:32: Und selbst wenn sie es könnte, jetzt mal noch zwei Meter weiter gedacht, selbst wenn
00:27:35: die Maschine, ja, ist ja denkbar, weiß ich, wie gut KI wirklich noch wird.
00:27:40: Selbst wenn sie es könnte, glaube ich, da ist das Interesse begrenzt, weil wenn ich
00:27:47: als Assistent sozusagen als Digital Agent oder wie auch immer, da bin ich vielleicht
00:27:54: damit einverstanden, dass ich mit einer Maschine kommuniziere oder mit einem Algorithmus.
00:27:59: Das kann ja funktionieren, aber wenn ich, wir reden jetzt von Büchern, wenn ich von
00:28:04: Filmen, von Musik, wie auch immer, all das, ich stelle mir gerade vor, ich würde ein Song
00:28:09: hören und würde erst im Nachhinein rausfinden, wäre jetzt kein schlechter 50er Jahre Schlagerding,
00:28:13: sondern es wäre ein richtig guter Song, so.
00:28:16: Und ich würde den hören und würde im Nachhinein erfahren, okay, das ist jetzt von verschiedenen
00:28:20: KI-Modellen irgendwie entworfen worden und gemacht worden, dann würde der mich überhaupt nicht
00:28:25: mehr berühren und gar nicht interessieren, weil man danach halt nicht sucht, mich interessiert
00:28:30: nicht wie einen Vorgang aus Nullen und Einsen irgendwie Kunst geschaffen hat.
00:28:35: Da gucke ich vielleicht einmal drauf und denke, boah krass, was das kann, so was.
00:28:40: Aber emotional und danach suchen wir nach einem emotionalen Feedback, nach einer emotionalen
00:28:44: Inspiration, macht das mit mir überhaupt nicht, ich sage so, ja, okay, wenn der jetzt, wenn
00:28:49: jetzt eine KI irgendwie von einem traurigen Leben singt, dann denke ich so, ne, kannst
00:28:53: du mir nicht erzählen.
00:28:54: Also was soll ich damit jetzt, so kann ich nicht antun.
00:28:58: Ja, ja, stimmt.
00:28:59: Oder weißt du auch so komische Beispiele wie ich habe mal in so einer Bildbearbeitungs-App
00:29:03: gesehen, also in einer Bildbearbeitungs-KI, da hat jemand gesagt, Berlin im Stile Van
00:29:07: Gochs, von, das hatte dann diese typischen Spiralen im Himmel, dieser Himmel von Van
00:29:12: Goch, Neyti, ja, aber dann war dieser Fernsitum dazwischen.
00:29:15: Und du merkst schon, das passt halt in, ist halt einfach nur Bad Art, ja, einfach eine schlechte
00:29:20: Kunst und einfach nur zusammengeklappt, geklappt, weiß ich also, ja, gestopft.
00:29:26: Ja, Mensch, da könnte man glaube ich noch lange darüber reden, aber ich würde noch
00:29:33: mal ganz kurz zurück zu Concordia.
00:29:35: Weißt du, als ich zuerst Concordia gehört habe, und ich hatte die Gelinge, hat er
00:29:39: schon vorhin zu gucken und das ist wirklich echt ein cooler Film und liebe Hörerinnen
00:29:44: und Hörer, jetzt ist er draußen, oder Serie, Entschuldigung, den verlinken wir natürlich
00:29:48: auch, die Serie verlinken wir auch.
00:29:49: Als ich Concordia das erste Mal gehört habe, habe ich gedacht, es ging um diese Sektor.
00:29:54: Weißt du, es gibt doch diese Concordia-Sekte, diese...
00:29:57: Da gibt es schon Filme drüber, ne?
00:29:59: Mit Daniel Berlich, oder?
00:30:00: Ja, ja, von diesem Schäfer, ne?
00:30:02: In Südamerika so eine Sekte, ja.
00:30:05: Concordia dignitat oder so, ich hieß der Fernsitum.
00:30:07: Ja, genau, ja, Colonia dignitat, ja.
00:30:09: Ja, ja, und da habe ich gedacht, es geht so in die Richtung, aber da war ich natürlich
00:30:12: überrascht, das ist so ein modernes Thema.
00:30:14: Wie kommt der Name zustande?
00:30:15: Concordia.
00:30:16: Ich habe keine Ahnung.
00:30:19: Okay, du hast keine Ahnung.
00:30:21: Wir wären das klären.
00:30:22: Ich weiß, dass auch nochmal andere Namen im Spiel waren tatsächlich.
00:30:26: Ja.
00:30:27: Ich weiß es zwischendurch nicht klar, ob wir Concordia sagen können oder nicht, weil
00:30:30: noch...
00:30:31: Es wurde noch diskutiert, ob es nicht doch ein anderer Name ist.
00:30:34: Concordfinnverlei.
00:30:35: Ja.
00:30:36: Wahrscheinlich aus verschiedenen Gründen, weil man unter Concordia wahrscheinlich vieles
00:30:39: findet, aber erst mal nicht die Serie.
00:30:41: Das war wahrscheinlich rein, das sind wir wieder beim algorithmischen Suchverhalten.
00:30:45: Wahrscheinlich hat sich die Redaktion echt überlegt, ob das jetzt so eine gute Idee
00:30:49: ist.
00:30:50: Also, liebe Leute, die uns zuhören, wenn ihr Vorschläge und Anmerkungen dazu habt und
00:30:56: wenn ihr eine Idee habt, wo es herkommt und was sonst noch sein könnte, bitte in die
00:31:00: Show notes oder schreibt uns einfach eine Message.
00:31:03: Ja, jetzt eine Sache noch an die ich denken musste, als ich den Plot gehört habe, war
00:31:08: kennst du dieses Buch von Dave Eggers?
00:31:10: Da gibt es auch so eine Verfilmung mit Tom Hanks zu.
00:31:13: Es ist folgt einem Google Experiment, es spielt auf dem Google Campus, die auch sozusagen
00:31:18: die ganze Welt mit Kameras überziehen wollen, um durch eine lückenlose Überwachung eigentlich
00:31:23: auch, also jetzt nicht wie in einem Film, durch eine KI und auch im Privaten, sondern sozusagen
00:31:30: lückenlose Verbrechensaufklärung und auch sozusagen Gefahrenabwehr betreiben können.
00:31:36: Also du bist irgendwie im Wald und weißt halt irgendwie, das Kamerasystem, da ist ein B
00:31:39: 100 Meter weiter von dir weg und so weiter und so fort.
00:31:42: Und es mündet aber auch in dieser Utopie in so eine Art Überwachungsstaat natürlich
00:31:46: und es wird dann auch gebrochen.
00:31:48: Ich will jetzt nicht auch sagen, um so viel zu spoilern, aber...
00:31:52: Ist hier schon passiert, es wird ja nicht geschnitten, es ist hier ja schon passiert.
00:31:58: Jetzt ist alles vorbei.
00:32:00: Ja, ist alles vorbei.
00:32:02: Aber hast du das Gefühl, das hat sich noch mal so seit wir sozusagen KI auch als Mensch
00:32:09: als Bedrohung wahrnehmen, auch noch mal so auch noch mal gesteigert, dass man als dramaturgische
00:32:15: Erzählung jetzt noch mal eine Bedrohung ins Private rein verlagern kann, von denen man
00:32:24: bisher dachte, die Privatsphäre ist unantastbar, wie das Grundgesetz es auch noch formuliert.
00:32:29: Ja, also ich kenne jetzt das Buch tatsächlich und den Film nicht, auf den du referiert hast.
00:32:36: Ich musste irgendwie, als ich Konkordia gelesen habe, als Allererstes einmal ein Ex Machina
00:32:39: denken, das war so ein Ding, was irgendwie sofort in den Kopf war.
00:32:42: Ist ja auch schon, der ist ja auch nicht mehr.
00:32:44: Da gab es glaube ich diese Form der KI jetzt ja auch noch nicht.
00:32:47: Nein, nein.
00:32:48: Und jetzt gibt es ja so diese ersten humanoid Robots und so, die irgendwie in so, naja,
00:32:52: natürlich noch nicht in die Richtung von dieser Sci-Fi Geschichte gehen, aber schon,
00:32:56: viele Sachen können, die Menschen auch können und das geht ja auch rasant voran.
00:33:00: Und natürlich, solche Entwicklungen bringen zumindest gesellschaftlichen Diskurs voran.
00:33:07: Und bei jedem einzelnen, wenn es so in unser Privatleben ein Einzug hält, so wie es bei
00:33:13: uns allen ist, über irgendwelche Smartphones, nicht bei allen.
00:33:16: Entschuldigung, es gibt Menschen, die haben in ihrem Leben noch nie das Internet benutzt
00:33:18: und die werden diesen Podcast ja wahrscheinlich auch nicht hören oder läuft es irgendwo im
00:33:21: Radio noch.
00:33:22: Nee, ich glaube nicht.
00:33:23: Ja, so, aber rein theoretisch, aber Menschen, die Smartphones nutzen, Suchmaschinen nutzen,
00:33:28: Navigationssysteme nutzen wir auch immer, die setzen sich ja schon irgendwann damit auseinander.
00:33:32: Da reden wir jetzt ja wirklich noch nicht davon, keine Ahnung, dass ein Staat uns als Bürger
00:33:38: überwacht, sondern abgesehen jetzt von irgendwie Verkehrskameras oder so und schon gar nicht
00:33:43: im privaten Rahmen.
00:33:45: Aber natürlich, ich glaube, den Diskurs muss es auch geben, weil jegliche Form der Technik,
00:33:51: technischen Fortschritt, das heißt damals irgendwie so die Atomenergie gewesen und
00:33:57: dann gibt es auch einen tollen Film.
00:33:59: Ich finde den ganz toll, den Open Heimatelfind zum Beispiel.
00:34:01: Aber egal, welchen technischen Fortschritt man hatte, er wurde auch immer irgendwie
00:34:08: für militärische Zwecke gebraucht, er wurde auch für kriminelle Zwecke missbraucht.
00:34:12: Also es muss auf jeden Fall immer ein Diskurs doch umgeben, wie gehen wir als Menschen
00:34:16: damit um, was wir eigentlich jetzt wieder geschaffen haben.
00:34:19: Und wir werden auch immer dafür, als verschiedene Gesellschaftssysteme werden wir immer Regeln
00:34:24: brauchen.
00:34:25: Also gibt jetzt auch einen großen Diskurs auf europäischer Ebene, wie man irgendwie Big
00:34:31: Data ein bisschen limitiert und wie man irgendwie mit KI-Geschichten umgeht und so.
00:34:34: Ich glaube, diese Diskurse sind ultra wichtig und ich glaube auch die Regeln sind ultra
00:34:38: wichtig, weil klar, es gibt jegliche Formen der Missbrauchsfantasien in vielen Köpfen,
00:34:45: die uns nichts Gutes wollen, immer, Menschen sind nun mal auch so.
00:34:48: Und es gibt unglaubliche Möglichkeiten, diese Technik zu missbrauchen.
00:34:54: Sofern finde ich, also ich bin gerne Teil des Diskurses und ich nutze ja auch wie gesagt
00:34:59: unheimlich gerne die Vorteile von Technik.
00:35:01: Ich bin totaler Technik nerd und ich, dass ich mich trotzdem totaler Befürworter bin.
00:35:05: Ich bin kein, bei mir geht es nicht so weit, dass ich sage, oh nein, meine persönliche Freiheit
00:35:11: ist mir mein allergrößtes Guts.
00:35:13: Das wäre total vermessen, das zu sagen, weil so lebe ich schon lange nicht mehr.
00:35:17: So, und nicht, dass ich trotzdem bin, ich totaler Fan davon, dass wir irgendwie in einer liberalen
00:35:25: Demokratie wie Deutschland oder auf europäischer Ebene, ich bin ein ganz großer Europafan,
00:35:32: dass wir auf EU-Fan, dass wir auf europäischer Ebene Lösungen dafür finden und Regeln
00:35:36: dafür finden, damit wir diese Technik irgendwie guten Gewissens nutzen können.
00:35:41: Ja Jonas, vielen Dank.
00:35:43: Damit hast du im Grunde schon das perfekte Schlusswort gesprochen und damit hast du
00:35:47: mich auch richtig überrascht.
00:35:48: Du bist ja jetzt hier Darsteller, Komponist, Musiker, Technik Experte, Technik Nerd und
00:35:54: ein bisschen Verweigerer.
00:35:55: Also da ist ja alles drin und wenn das nicht mal zu deiner Serie "Concordia" führt, ja.
00:36:00: Nee, also vielen Dank für das tolle und offene Gespräch.
00:36:04: Hat mir auch Spaß gemacht.
00:36:05: Hey, vielen Dank.
00:36:06: Lieben Dank für die Einladung und bis ganz bald irgendwann mal.
00:36:09: Das hoffe ich.
00:36:10: Bis bald.
00:36:11: Ciao.
00:36:12: Tage wie diese.
00:36:17: Alex Bräucher fragt sich und seine Gäste, was eigentlich gerade los ist.
00:36:22: [Musik]
Neuer Kommentar