Tap to unmute

Maschinelles Lernen & warum es gruseliger ist als man denkt (Jonas Betzendahl - Science Slam)

Teilen
Einbetten
  • Am 19 Okt 2021 veröffentlicht
  • Als Apple seine neue Software zur Erkennung von Kinderpornografie ankündigte, hofften viele darauf, dass das in Zukunft Verbrechen verhindern kann. Doch wie genau ist so eine Software und welche Fähigkeiten haben Maschinen heute, Dinge auszulesen und zu erkennen? Informatiker Jonas Betzendahl erklärt das in seinem Science-Slam-Beitrag.
    Der Science Slam fand am 23. September 2021 im Wiley-VCH Verlag in Weinheim statt.
    Science Slam ist eine Veranstaltung von Julia Offe.
    DEclips/ScienceSlam: Linda Richter (linda@scienceslam.de)
    SCIENCE-SLAM-TERMINE UND WEITERE INFOS:
    www.scienceslam.de
    SCIENCE SLAM AUF SOCIAL MEDIA:
    Facebook: ScienceSlam
    Twitter: scienceslam
    Instagram: scienceslam.de
    WILLST DU SELBST EINMAL AUF DIE BÜHNE?
    Voraussetzungen: www.scienceslam.de/mitmachen....
    Melde Dich bei Julia Offe unter: julia@scienceslam.de
    KANAL ABONIEREN:
    declips.net/user/ScienceS...

KOMMENTARE • 154

  • Oli 2oo
    Oli 2oo Vor 2 Monate +63

    Richtig cooler Vortrag. Echt authentisch und einfach verständlich

  • WerewolfAX
    WerewolfAX Vor 3 Monate +93

    Dieser Vortrag war wirklich sehr interessant und kurzweilig aufbereitet. Ich habe nur noch nicht ganz verstanden, warum in die Fotoserie mit den vielen Waffen eine Schildkröte hineingemischt wurde, obwohl es sich bei dieser ja um ein recht ungefährliches Tier handelt. 🤖

    • subshadow1
      subshadow1 Vor Monat

      Sicher das es keine Panzermine ist?

    • Jackie Gerlach
      Jackie Gerlach Vor 2 Monate +4

      @WerewolfAX Man hilft gerne wo man kann! 😁😋

    • WerewolfAX
      WerewolfAX Vor 2 Monate +3

      @Jackie Gerlach Oh, Entschuldigung! Das Neural Video Processing befindet sich noch in der Betaphase, aber das ehrliche Feedback wird natürlich zur kontinuierlichen Verbesserung der Erkennungsleistung genutzt. 🥰😉

    • Jackie Gerlach
      Jackie Gerlach Vor 2 Monate +7

      Du solltest nochmal deine Software aktualisieren. Tatsächlich war das eine Bild in der Fotoserie ein Gewehr und keine Schildkröte. Keine Ahnung, wieso das so viele als Schildkröte erkennen, wobei es sich doch offensichtlich um ein Gewehr handelt

    • Es hat bereits begonnen
      Es hat bereits begonnen Vor 2 Monate +13

      Für männliche Nacktbader sind Schnappschildkröten seeeeehr gefährlich.

  • Rumo
    Rumo Vor 3 Monate +237

    Bei der Einstiegsfrage hätte ich erwartet: "Bielefeld gibt es wirklich?"

    • Robert Eigenbrod
      Robert Eigenbrod Vor 2 Monate +1

      hab ich auch gedacht :D

    • Skrublord
      Skrublord Vor 2 Monate +2

      Wäre ja super lame gewesen, nachdem er direkt am Anfang schon subtil darauf angespielt hat

    • Jan Bayer
      Jan Bayer Vor 2 Monate

      Die Ware ein Muss gewesen.

    • tarkaras
      tarkaras Vor 2 Monate +2

      Zu offensichtlich

    • You Tube
      You Tube Vor 2 Monate +2

      Same

  • Norbert Wielage
    Norbert Wielage Vor year +28

    Mega spannend. Toller Slam, Jonas!

  • Andreas Zettl
    Andreas Zettl Vor 3 Monate +45

    Mega geil, ich war schon immer davon überzeugt das das menschliche Gehirn mit allem was wir noch nicht wissen, nicht so mal eben reproduzierbar ist. Danke für diese Erklärung.

    • ODog LP
      ODog LP Vor Monat

      @Juidodin wie gesagt, diese Haarspalterei ist wichtig, weil es immer mehr Menschen gibt, die wirklich denken wir hätten schon künstliche Gehirne auf dem Stand von 3-jährigen. Ich musste neulich mir anhören, dass wir uns doch langsam moralisch damit auseinander setzen müssen, was es bedeutet eine KI abzuschalten, weil dieses absurde Bild in die Köpfe verpflanzt wird, dass wir extrem kurz davor sind ein hartes, echtes künstliches Bewusstsein zu entwickeln. Und ja kontextfrei, ich weiß ja nicht wer mir hier gegenüber sitzt, ich lese nur Kommentare von nem Rando auf YT, der beleidigend wird, wenn er kein Bock mehr hat.

    • Juidodin
      Juidodin Vor Monat

      @ODog LP eigentlich müsste es ein sad face emoji sein, da du nicht nur offensichtlich keine ahnung hast wo von du redest, sondern nicht einmal die bedeutung der emojies kennst. du bist nur ein troll der sich in kontextfreier haarspalterei verliert weil er sich selber am liebsten labern hört.. ich habe gelernt, dass es absolut kein sinn macht mit leuten wie dir, die textbuchbeispiele für dunning-kruger sind, argumentieren zu wollen. in dem sinne: 🤦‍♂🤡

    • ODog LP
      ODog LP Vor Monat

      @Juidodin schön dass du darüber lachen kannst, weil aber zu viele Menschen diese Unterscheidung nicht treffen können, muss der Kollege im Video sich ständig die eingangs erwähnte Frage an der Kaffeemaschine anhören.

    • Juidodin
      Juidodin Vor Monat

      @ODog LP 🤦‍♂️🤡

    • ODog LP
      ODog LP Vor Monat +1

      @Juidodin nope. Da wird gesagt dass wir von Neuronen eine grobe Vorstellung haben wie sie funktionieren und diese grobe Vorstellung wurde nachgebaut und als Grundlage für einen Algorithmus genommen. Das menschliche Gehirn basiert aber auf mehr als Neuronen, benutzt nicht die selben Algorithmen, kann deutlich mehr und ist in seiner Gesamtheit noch nicht vollständig erschlossen, weswegen wir es auch nicht nachbauen können.

  • Rob
    Rob Vor 2 Monate +1

    Guter und wichtiger auf den Punkt gebrachter Vortrag 👍

  • Eleweyter
    Eleweyter Vor 3 Monate +23

    Ich kann das Problem von dem zuletzt genannten Algorythmus durchaus nachvollziehen.
    Es fällt mir auch immer schwer Lego-Palpatine und Jean-Luc auseinander zu halten.
    So wie in der einen Folge neulich, als die Borg Coruscant assimilieren wollten und Picard den Befehl zur Trennung des Todessterns gegeben hat um die Ferengi davon abzuhalten sich die ganzen in Gold gepressten Legosteine unter den Nagel zu reißen welche die Rebellen für den Bau ihrer B-Klasse-Chicken-Wings-of-Prey haben wollten. XD

    • Iwonttellmy nametoamachine
      Iwonttellmy nametoamachine Vor 2 Monate

      Algorithmus
      Rhythmus
      Beides falsch ^^

    • Eleweyter
      Eleweyter Vor 3 Monate +3

      @Geri Skater Keine Ahnung, ich glaube das war in der Lindenstraße. XD

    • Geri Skater
      Geri Skater Vor 3 Monate +4

      Ja aber was haben die Goa'uld damit zu tun und Hat Janeway eigentlich die Zylonen besiegt?

  • Coraku 004
    Coraku 004 Vor 3 Monate +5

    Wow, tolles video, kurz und verständlich, vielen dank!

  • cpm
    cpm Vor 2 Monate +2

    Bitte bleiben sie skeptisch ist ein guter Ratschlag.
    Wobei man sich sagen muss, dass die Versprechungen von ML/AI einfach schwer überzogen sind.
    Sicherlich hat es aber auch tolle Anwendungsbereiche.
    Bei der Medikamentenentwicklung versuchen wir auch gerade unser Glück an Massen von klinischen Daten... Bisher mit sehr überschaubarem Erfolg ^^

  • George
    George Vor 2 Monate +2

    Bin froh, dass das Video mir etliche Male wiederholend empfohlen wurde, da ich mir zwar merken wollte es noch anzusehen, aber wahrscheinlich sonst nicht mehr dazugekommen wäre. Tolles Video, unterhaltsam. Es gibt die vielen "ähs" zu kritisieren, dennoch gut hingekriegt.

    • Rick Locket
      Rick Locket Vor 2 Monate

      mich nerven eher seine weil/denn bzw Hauptsatz/Nebensatz Probleme.
      z.B
      ",weil je nach Anbieter wird das hochgeladen."
      statt richtig:
      ",weil das je nach Anbieter hochgeladen WIRD."
      oder
      ",DENN je nach Anbieter wird das irgendwie hochgeladen."

  • Joschi Step
    Joschi Step Vor 3 Monate +8

    Also wenn ich mal irgendwann eine Party veranstalte, ist er eingeladen.
    War einer der Science Slams, die mir am besten gefallen haben bisher.

  • Markus Haas
    Markus Haas Vor 3 Monate +5

    Toller Vortrag!

  • Unknown User
    Unknown User Vor 3 Monate +20

    Der Einstieg hat schon alles Hops genommen! Props an dich!

  • denns0r
    denns0r Vor 2 Monate

    Toller Vortrag!! Und: Zu meinen Parties dürfest du immer kommen!! 😊

  • micmul23
    micmul23 Vor 2 Monate

    Man spricht in diesem Zusammenhang auch vom "Problem des gesunden Menschenverstandes" und das gilt wohl als der Heilige Gral und härteste Nuss der KI-Forschung.

  • ѕloтн and вadger
    ѕloтн and вadger Vor 2 Monate

    So ein cooler Vortrag.

  • Mindspectrum
    Mindspectrum Vor Monat

    Schöner Beitrag! Aber er sollte dringend was für seine Kondition tun. 🥺

  • E L
    E L Vor year +4

    Ein richtig gutes Video 👍

  • sven klingen
    sven klingen Vor 2 Monate +1

    Vielen Dank für den Upload. Vielen Dank an Jonas. Ich beschäftige mich derzeit mit der Thematik " Machine Learning" und da ist das ein richtig guter Beitrag (der allerdings schon ein kleines bisschen vorkenntnis erfordert bzw selbiges sehr praktisch ist). Soweit ich das verstanden hab, berichtet Jonas hier über NN (also eher DL als ML). Aber hey... das hängt ja alles zusammen. XD
    Beitrag bis zum Ende geschaut. Anmerkung dazu: Alles schön, richtig und gut - jedoch vermisse ich ein wenig weiterführende Überlegungen zum Verbessern der "Treffsicherheit" bei ML/DL. Es gibt ja etliche Ansätze. Ich favorisiere folgenden Ansatz (ohne zu wissen ob er durchführbar ist): Gib dem Model einen 3D Blueprinter für ein Objekt. Lass das Modell einen Abgleich mit den präsäntierten Daten machen. Gib dem Model Blueprints für alle möglichen HIntergründe und deren Kombinationen. Die 3D-Maske muss vom Hintergrund separierert werden. Bei Bilderfolgen sollte das relative sicher sein, denn das Abzugleichende Objekt wird sich weniger ändern als der Hintergrund, wenn man die 3D Maske des zu erkennenden Objektes als
    Referenz zu Grunde legt. Umgekehrt: Die übereinstimmung mit der 3D Maske des Ojekts sollte einfacher zu klassifizieren sein, als der sich variabel ändernde hintergrund. Ggf. sollte bzw könnte man hingehen und hintergrund und objekt trennen lassen (stichwort stereoskopie) und von separaten NN´s klassifizieren lassen. Durch die Trennung wird es einfacher, die objekte zu klassifizieren. Das ganze wird dann somit auf 2 verschiedene lineare regressionen minimiert. Nur mal als Anmerkung.
    Und noch einen für den Spaß´:
    Wenn ich ´ne überlegene Intelligenz wäre, würde ich die dummen Menschen auch zum Narren halten und fragen, ob sie beim Kauf einer Geldbörse noch weitere Geldbörsen kaufen wollen. Denn
    Erstens: so dumm kann nur der Mensch sein
    Zweitens: so unwahrscheinlich ist das garnicht. Menschen haben Familie, Freunde, Bekannte.. die brauchen auch alle Geldbörsen....
    Drittens: nur der unbedarfte Menschtrottel würde denken, dass eine überlegene Intelligenz ihn niemals ausbooten könnte....
    hmmm...vielleicht haben die experten den Zeitpunkt sich sorgen zu machen schon verpasst... aber hey. früher haben wir gescherzt, Bill Gates würde seinen Computer fragen, ob Gott existiert... nach dem BillyBoy dann alle Rechner zusammengeschlossen hat, kam die Antwort: "JETZT schon!"
    XD

  • HaasiAustria
    HaasiAustria Vor 3 Monate +1

    Sehr interessant, danke!

  • Anu Jiba
    Anu Jiba Vor 3 Monate +9

    9:00 der Baseball in Zeile 3 Spalte 4 sieht aber wirklich aus wie eine Kaffeetasse von oben.
    *Generell finde ich dass man bei den Baseballs es irgendwie nachvollziehen kann. Bei vielen roten sieht man die Nähte von oben (was halt wie ne Tasse aussieht, irgendwie) oder in einer Graden Linie quer über den Ball. Bei den grünen erkennt man ganz gut anhand des verlaufes der Nähte das es ein Ball und speziell ein Baseball ist. Nicht perfekt aber irgendwie nachvollziehbar.
    Im Grunde gar nicht so übel für eine "Intelligenz" die unserer so fremd ist

    • Steffka Pasteffka
      Steffka Pasteffka Vor 2 Monate

      Ich vermute, es wurde als Espresso Kapsel erkannt, da die ja auch diese gestanzten/gefalzten Nähte haben.

    • Anu Jiba
      Anu Jiba Vor 3 Monate +1

      @Andreas Henschel ich sag ja ist nicht perfekt. Und hab auch keine Ahnung ob es überhaupt was damit zu tun hat.
      Aber wir sehen ja auch zum Beispiel überall Gesichter oder würden einen gezeichneten Würfel nicht erkennen wenn wir noch nie einen in echt gesehen hätten. In den einen Fall hab ich auf den ersten Blick aber tatsächlich selbst gedacht dass es aussieht wie ne Kaffeetasse von oben.

  • Rot Kehlchen
    Rot Kehlchen Vor 3 Monate

    Interessant, und Ihr Stil gefällt mir.

  • Person23
    Person23 Vor 2 Monate +2

    Also der Vortrag war gut, meine Frage wäre aber wie du das hinbekommst das ein Bild als genau ein anderes erkannt wird? Also brute-force wäre ja schwer realisierbar weil es so unglaublich viele Möglichkeiten gibt, und mir persönlich fällt jetzt nicht ein wie man einen Algorithmus programmieren könnte der das für einen ohne brute-force macht, da KI ja nicht deterministisch ist

    • co
      co Vor Monat

      Man kann ein weitere Netz trainieren, dass das Rauschen erzeugt. Es bekommt das Bild als Eingabe und die Auswertung des anderen als Eingabe.
      Nicht sicher, ob das hier so gemacht wurde.

  • Dallas Frances
    Dallas Frances Vor 3 Monate

    Gruselig wie schlecht es eigentlich immer noch ist bzw wie wenig es mit dem Erkennen wie wir es tun zu tun hat/dem ähnlich ist. Dafür gibt es aber auch wohl ziemlich logische Gründe bzw kann man relativ "ez" zusätzlich ein System entwickeln welches mehr so sieht/denkt/erkennt wie wir. Beide Systeme zusammen exponentiell anders trainiert wird immer unfehlbarer.

  • StyleTechnique
    StyleTechnique Vor 29 Tage

    Und diese Tatsache mit der Katze erklärt quasi auch für jeden nicht Informatiker sehr anschaulich warum Chatkontrolle SO nicht funktioniert!

  • Ali
    Ali Vor 2 Monate

    sehr interessant, danke!

  • Siocain
    Siocain Vor year +22

    Daumen hoch für das coole T-Shirt von Jonas :D

    • Jonas Betzendahl
      Jonas Betzendahl Vor year +3

    • Jodisel
      Jodisel Vor year +3

      Ich will das nb-Shirt jetzt auch! Aber jetzt schau ich das Video erstmal zu Ende ^^

  • Hard Core
    Hard Core Vor 2 Monate

    Ich denke die KI sicht nach Mustern.
    Die sollte aber in 3D Modellen denken. Also man sollte mit Förmchen wie für Kinder anfangen.
    Stellt euch vor ihr habt nie ein Tastsinn gehabt und habt 0 Erfahrung.
    Ich glaube auch die Robotik macht ein riesen Fortschritt wenn in Füssen ein Tastsinn eingebaut wird.
    Das hilft sehr beim laufen.

  • Daniel Straub
    Daniel Straub Vor 2 Monate +1

    Jetzt ist mir klar warum man in einem Bilderfeld zb Verkehrsschilder auswählen muss, um sich als Mensch zu identifizieren, da eine KI das also eh nicht hinkriegen würde 😛

    • You Tube
      You Tube Vor 2 Monate

      Richtig. Das heißt aber dann auch, dass es egal ist, welche Felder man auswählt, weil die KI die richtige Lösung nicht kontrollieren kann.

  • عزیزم
    عزیزم Vor year +5

    Autonomes Fahren zu Zeiten von Karneval.

  • Lars Hinrichsen
    Lars Hinrichsen Vor 3 Monate

    Das Beste kommt zum Schluß. Hat sich aber gelohnt durchzuhalten.

  • Katharina W.
    Katharina W. Vor 8 Monate +1

    Mega spannend

  • Firestorm 253
    Firestorm 253 Vor Monat

    Das Problem wurde großflächig gelöst. Stichwort: “Adverserial Invalidation”

  • Peter Steiner
    Peter Steiner Vor 3 Monate

    Hmmm, also den Espresso kann ich bei einigen Bildern sogar nachvollziehen.

  • MoonMan Pictures
    MoonMan Pictures Vor Monat

    Beim machine learning (zu mindesten in dem Vortrag) geht es doch darum große Datenmengen zu verarbeiten. Am Ende noch einen Menschen einzuschalten um die Finale information zu verarbeiten ist doch ohnehin klar.

    • MoonMan Pictures
      MoonMan Pictures Vor Monat

      @co Gutes Beispiel, ja, das hätte der Beitrag gebraucht imho.

    • co
      co Vor Monat

      Es geht bei machine learning nicht unbedingt um die Verarbeitung von großen Datenmengen. Es geht vorallem um die Erkennung von Mustern.
      Aber um die Muster zu finden braucht man große Beispieldaten.
      Wenn dein Auto komplett automatisch fahren soll und jemand ein Stopschild so manipuliert, dass es für das Auto wie "Tempo 100" aussieht, gibt es halt keinen Menschen mehr, der da gegencheckt.

  • Maxi H.
    Maxi H. Vor 3 Monate

    Also hab die Bilder von Katze und Schildkröte bei Google Lens reingehauen und sie wurden ohne Zweifel als Katze tabby und Meeres Schildkröte erkannt.

    • _ b!0h4z4rd
      _ b!0h4z4rd Vor 3 Monate +1

      Das sind ja nicht mehr die originalen manipulierten Bilder auf denen ein spezielles Rauschen draufgelegt wurde.

  • MajStealth
    MajStealth Vor 3 Monate

    computer waren und sind gut im tun von dingen die berechenbar und immer gleich sind - nichts was ich mit bildern assoziieren würde

    • PfropfNo1
      PfropfNo1 Vor 2 Monate

      AI kann man täuschen, das ist durchaus eine Schwäche, die man beachten muss. Man darf aber nicht vergessen, dass man Menschen auch täuschen kann. Meist viel einfacher und simpler.

    • Verena Glowatzki
      Verena Glowatzki Vor 3 Monate

      Sie werden aber in Zukunft eingesetzt werden um wichtigere Dinge zu entscheiden. Autonome Laufroboter gibt es schon.

  • micmul23
    micmul23 Vor 2 Monate +2

    Bei dem Hund und der Katze wusste die KI einfach worauf es ankommt: Beide sind awww süüüß awww. 🤗

  • DarkSkay
    DarkSkay Vor 2 Monate

    Two AGI robots without a utility function sit on a park bench.

  • rokatainment
    rokatainment Vor 2 Monate

    Gott sei Dank wird daran gearbeitet das im militärischen Bereich für autononme Drohnen usw. zu verwenden. Was kann da schon schief gehen...

  • Hans Berger
    Hans Berger Vor 3 Monate +2

    Science slam ist nicht immer lustig?

  • tauchersmiddy
    tauchersmiddy Vor 2 Monate

    Guter Vortrag, treffende Argumente. Warum das als SCIENCE-SLAM verkauft wird, verstehe ich nicht so ganz. Ist für mich die beste Relativierung des viel zu hoch gehypten Themas "maschinelles Lernen". So etwas wird u.A. für Prüfverfahren in der industriellen Fertigung verwendet wird, obwohl man das eigentliche Prüfverfahren nicht ansatzweise verifizieren kann.

    • Lone Starr
      Lone Starr Vor Monat

      Das wird als Science-Slam verkauft, weil er auf einem Science-Slam aufgetreten ist.

  • cosima kazak
    cosima kazak Vor 9 Monate

    👍🏻supi

  • Daniel Duckson
    Daniel Duckson Vor 3 Monate

    Interessant.
    Mal zu verstehen wie KIs verstehen. Oder es zu versuchen.
    Spiele ne Weile mit Text to Image KIs rum wie z.B. DALL E , Wombo oder StableDiffusion rum....ja und da wunderst mich hin und wieder wie die auf das Ergebnis kommen....ich sag Kapelle und es kommt eine tanzende Frau auf der Wiese...der Rest sind diverse traumartige Gebilde von Kapellen...der eine Ausreißer fasziniert mich dann schon irgendwie...

    • 飛康
      飛康 Vor 27 Tage

      stable diffusion hat sogar diffusion im namen 🤦‍♂

  • MömpfLP
    MömpfLP Vor year +6

    Eine KI zur Unterstützung einsetzen bedeutet nicht die Entscheidung vollends dem Algorithmus zu überlassen.
    KI sind für erste Filterungen hilfreich und nehmen einen grossen Teil der Arbeit ab, können aber auch Fehler machen.
    Btw 7:00 Es sind sogar nur "0.007"

    • PfropfNo1
      PfropfNo1 Vor 2 Monate

      @Nemo99 Nemo So funktioniert das ja nicht. Jedes Bild hat einen sogenannten Hash. Das kann man sich vorstellen, wie ein Fingerabdruck. Zu jedem Fingerabdruck passt genau ein Mensch, das heißt man kann jeden Mensch exakt identifizieren. Dennoch sagt der Fingerabdruck *absolut nichts* über den Menschen aus. So ist das mit dem Hash auch. Ob die Person darauf nackt ist oder nicht, kann man an dem Hash nicht erkennen. Es werden lediglich die Hashes von bereits bekannten Bildern mit denen auf dem iPhone verglichen.
      Das ist ein bisschen wie bei der Corona Warn App. Da werden zwar Codes versendet und verglichen, aber mit den Codes an sich kann man absolut nichts anfangen.
      Das nur als Erklärung. Es klang bei dir so, als würde eine AI deine Photos analysieren und nach Nacktbildern suchen. Das ist definitiv nicht der Fall. Es werden wie gesagt eh nur Photos verdächtigt, die schon bekannt sind. Pornographische Inhalte werden halt oft mehrfach geteilt. Wenn irgendwo Jemand "auf herkömmlichen Wege" erwischt wird, kann man die Hashes der Photos auslesen und auf anderen Geräten nach diesen Hashes suchen.

    • Nemo99 Nemo
      Nemo99 Nemo Vor 2 Monate

      @PfropfNo1 Also ich hätte schon ein Problem damit, wenn Apple anfängt Bilder, die zwischen mir und meiner volljährigen Freundin ausgetauscht werden an die Polizei weiter zu leiten nur weil wir beide jünger wirken als wir sind.

    • Schabe
      Schabe Vor 2 Monate

      @PfropfNo1 Nein nein, statistische Algorithmen sind schon gut, lass sie mal utopisch bei 99,999% Treffer liegen. Das Problem ist nur, wie lange läuft der Algorithmus? Bei einem Bild pro Tag sagen wir 365*40.000.000 Mal da wären das allein 14.600.000 Fehlentscheidungen im Jahr auch mal mit juristisch schweren Folgen. Und dann ist da auch noch das größere Problem, das die ja auch so eine Vorentscheidung treffen sprich z.B. offensichtliche Pornografie gar nicht erst melden.
      Kriegt das einer mit?
      Nein, dafür müsste ja jemand parallel zum Algorithmus diese Arbeit machen und das kann in der Tat kein Polizist also ist das Augenwischerei, KI trifft bereits jetzt immer Entscheidungen, wir versuchen nur die verantwortliche Schwere dieser abzufedern.
      Das du das nicht so schlimm findest ist aber kein Argument, die Mehrheit vor allem Datenschützer sehen das dann anders und dann? Ihre Meinung? Damit ist doch nix gewonnen.
      Im Worstcase sieht der Beamte kein Hundebild sondern das einer leichtbekleideten jungen Frau an ihren Freund, weil das eben privat war. -_- Ernsthaft, was interessiert denn den Hund ein Bild von sich? Wohl eher ein juristisches Wurscht-Case-Szenario gewählt geschweige denn mit wie vielen Fehlern Apple die Polizei da zumüllen würde. XD
      Problematisch ist, dass damit der automatisierten Generalüberwachung Tür und Tor geöffnet wird - wer könnte denn dagegen sein auf diese statistische Art und Weise dann auch die Neigung zu Pädophilie, Mörder, oder Terroristen zu finden - und dann haben wir ein klein bisschen China.
      Es wird nämlich aufgrund der statistischen Komponente und der Coevolution der Täter dem Algorithmus zu entgehen auch immer Kollateralschäden geben und manche sind davon häufiger betroffen und manche seltener.
      Wer?
      Na der Durchschnittsmensch seltener, diese Algorithmen erzeugen einen Flaschenhals und eine Normierung der Gesellschaft wie auch jetzt schon sich Menschen sozialen Netzwerken anpassen z.B. dann keine FKK-Bilder mehr zu machen, weil man sonst überdurchschnittlich oft Aufwand betreiben muss, aus einer Polizei-Schublade wieder raus zu strampeln.
      Und dann natürlich die realistische Frage der Wirtschaftlichkeit, will sich die Polizei ernsthaft mit der Jugend anlegen?
      Da werden hunderte Bilder pro Tag verschickt und auch im Überschwang der Pubertät mal fragwürdige gemacht und dann jeden Tag mit einem Jugendlichen auf dem Revier zu diskutieren, ob sein Stück oder ihr Po auch dem Schönheitsideal des Algorithmus und der großen Liebe entspricht... da hat die Polizei nun wirklich besseres zu tun geschweige denn was neben diesen Peinlichkeiten da juristisch auf sie zukommen würde.

    • PfropfNo1
      PfropfNo1 Vor 2 Monate

      @Schabe _Wer baut denn bitte eine Maschine, die dir die Arbeit abnimmt nur um dann permanent noch mal zu gucken, ob sie auch alles richtig gemacht hat?_
      Na genau das Beispiel im Video: Apple. Wenn mir jemand was böses will und mir ein Hundebild schickt, dass von Apple als Kinderpornographie erkannt wird, werde ich doch nicht sofort verhaftet. Im Worst case schaut sich ein Polizist das besagt Hundebild an, denkt sich "Da hat der Apple-Algorithmus mal wieder Sche** gebaut" und gut ist. Aber anstatt je 1000 Fotos auf 10 Mio Geräten (also 10 Milliarden Fotos) zu durchsuchen, macht die AI das. Und natürlich muss dass dann nochmal von Menschen gesichtet werden. Apple hat das nach Kritik zurückgezogen, aber ich hätte kein Problem damit gehabt, dass im Worst Case 3 Bilder von mir an die Polizei geleitet werden (auch das wäre schon extrem unwahrscheinlich) und dafür Kinderpornographie zumindest nicht mehr mit Apple-Geräten verbreitet werden können.

    • Schabe
      Schabe Vor 3 Monate

      @Andreas Henschel So ein anlernbarer Arm? Dabei permanent noch mal neu zu lernen wäre ja ein Energieverbrauch was übrigens oft auch vergessen wird, sicher das eine KI überhaupt wirtschaftlicher ist?
      Marc Uwe Kling schreibt in der Dystopie Qualityland dazu der Kellner sei natürlich noch ein Mensch, kein Androide. Androiden kriege man nicht für Trinkgeld.
      Der Mensch ist eine evolutionär optimierte Maschine, seine Macken werden ordentlich erforscht. Eine spezialisierte Maschine kann sehr effizient sein aber der Mensch ist eben eine anpassungsfähige und unterm Strich käme dann eben auch eine Kosten-Nutzen-Analyse auf ein Unternehmen zu.
      Lohnt es sich, sich einen "John of us" anzulegen, wenn der einfach den 10-fachen Energieverbrauch hat nur um ein Tablet fehlerfrei an einen Tisch zu tragen oder z.B. nur ein Auto-Auto zu steuern, um einen Menschen von A nach B zu bringen und den Rest des Tages sich als KI zu langweilen? Oder rumzukurven um zu trainieren? Wahrscheinlich lässt es sich dann irgendwo volllaufen. ~ Qualityland
      Wie ein Tesla-Tester bemerkte meide das Auto eine gewisse Route also zwang er das Auto dort in die Straße und bomps, spielte es mal nicht Straßenbahn sondern rauschte noch in eine Reihe niedriger Absperrpoller.
      Es wird auf jeden Fall spannend, z.B. wenn dich dann die KI doch bittet ihr ein wenig entgegen zu kommen. Sie dich leider nicht verstanden, könntest du das noch einmal sagen aber auf englisch bitte, da hat sie mehr Erfahrung? XD
      Wir wollen den Menschen nachbauen nur aus Blech äh Aluminium ;D aber eigentlich wollen und brauchen wir das gar nicht.

  • 7VAMPIR YCPRF6D3
    7VAMPIR YCPRF6D3 Vor year +2

    🖖👍

  • prod. getSturdy
    prod. getSturdy Vor 18 Tage

    Classified as Espresso.

  • JeermynRex
    JeermynRex Vor 2 Monate

    Als Schildkröte getarnte Waffen. Interessant.

  • wurst
    wurst Vor 2 Monate +2

    Das Problem gibt es ja aber auch bei Menschen mit optischen Täuschungen. Overfitting halt 🤷‍♂️.
    Sobald irgendjemand erfolgreich ein NN trainiert, dass einen Selbsterhaltungstrieb hat, wird es kritisch.

    • wurst
      wurst Vor 2 Monate

      @ODog LP wenn du so sicher bist, 50€ in 5 Jahren. Bei der momentanen Inflation ist das nicht mehr viel 😄

    • ODog LP
      ODog LP Vor 2 Monate

      @wurst Nein, die Kutsche wird nicht fliegen, egal wie viel Pferde du davor spannst, das war mein Punkt.
      Worauf sollen die Netze denn ergebnisoffen trainieren? Worauf soll das NN denn trainiert werden ohne Fehlerfunktion? Was sind deine Trainingsdaten, anhand derer du das NN trainierst, wenn du gar nicht weißt worauf du das NN trainierst? Mit deinen Verwechslungen zwischen NN und echten Neuronen vergisst du völlig, dass ein NN am Ende des Tages nur ein Optimierungsalgorithmus ist wie jeder andere auch. Damit eine KI ergebnisoffen funktioniert, müssten erstmal völlig neue mathematische Theorien geschaffen werden.

    • wurst
      wurst Vor 2 Monate

      @ODog LP wenn du die Kutsche stark genug beschleunigst, dann fliegt sie doch.
      Man müsste natürlich zuvor eine gewisse Komplexität erreichen können. So wie beim Menschen auch. Wir haben teilautonome Regelkreise und Kerne im Hirn, die an sich als spezifizierte neuronale Netze abgebildet werden können, das ist soweit ziemlich gut untersucht.
      Dann gibt es ein Metasystem, das die Komponenten einsetzt und bewertet mit klar definierten Zielen. Stirb nicht, vermehre dich.
      Das Training läuft im Gegensatz zum aktuellen Training von NN permanent und die Datenmenge ist nicht gedeckelt, sondern erweitert sich in Echtzeit.
      Wir wissen immer noch nicht genau, warum wir überhaupt schlafen. Wahrscheinlich macht unser Hirn da etwas ähnliches wie Backpropagation.
      Ich würde mich sehr wundern, wenn wir nicht innerhalb von 10 Jahren Metanetze hätten.
      Um es spannender zu machen, können wir wetten. In 10 Jahren gibt es NN, die autonom rund um die Uhr ergebnisoffen Daten aus der Umwelt aufnehmen und eigenständig "Subnetze" trainieren. 50€?

    • ODog LP
      ODog LP Vor 2 Monate

      ​@wurst "Das ist Quatsch" war auch kein Argument von mir, sondern die Zusammenfassung, die Argumente kamen in meinen Kommentaren davor. Auf viele bist du ja auch einfach nicht eingegangen, Stichwort Berechenbarkeit und klare Zielvorgaben. Die krasseste KI Bilderkennungstechnologie wird trotzdem nie deinen Witz verstehen. Und bitte hör auf mit deinem "Früher hätte man XY nicht geglaubt". Das ist survivorship bias: Es gab auch aberwitzig anderer tausend Vorstellungen von Zukunft, die alle nicht wahr geworden sind. Aber abgesehen davon: Das Beispiel funktioniert hier nicht. Um deine Kutsche heranzuziehen. Das ist so als hätte vor 150 Jahren jemand gesagt, "Irgendwann drehen sich die Räder so schnell, wenn wir es schaffen genug Pferde vor die Kutsche zu hängen, das sie abhebt und fliegt" und ignoriert, dass eine Kutsche und Pferde einfach nicht die Eigenschaften haben um einfach so abzuheben. Und es ist das gleiche mit KI: Egal wie krass die KIs werden, es bleiben softe KIs, die in einem sehr begrenzten Einsatzgebiet extrem gute, aber erwartbare Ergebnisse liefern werden. Aber sie wird niemals abstraktes Denken, implizites Wissen, Ironie, Gefühle etc. einfach so erlernen, genauso wie die Kutsche nicht einfach Flügel entwickelt. Da muss erstmal der Mensch heran, der das Flugzeug erfindet. Aber um das zu erfinden, was einer echten, starken, KI mit Bewusstsein noch fehlt, muss der Mensch erstmal verstehen wie man diese fehlenden Sachen berechnen kann, von alleine kommt die KI da nicht drauf. Denn die lernt nicht wie ein Mensch, die lernt mit den selektierten Daten, die ihr gezielt gegeben werden, in dem eng gesteckten Rahmen, der ihr gegeben wird und mit einer klaren Zielvorgabe ("Handelt es sich um einen Baseball?", "Empfehle mir ein Lied!"), die ihr gegeben wird. Aus diesem Rahmen kann eine KI nicht ausbrechen, weil es technisch schlichtweg nicht möglich ist, bevor wir nicht wissen wie man der KI das beibringen kann. Und das wissen wir aktuell noch nicht, egal wie sehr du es dir wünscht.

    • wurst
      wurst Vor 2 Monate

      @ODog LP noch nicht. Und "das ist Quatsch" ist leider kein valides Argument.
      Neuronale Aktivität ist nichts anderes als Informationsverarbeitung auf Grundlage von Neuronen.
      Unser Hirn arbeitet tatsächlich permanent und wird ständig weiter trainiert.
      Sicherlich gibt es im Gehirn auch (noch) differenziertere Verschaltungen, die können aber auch auf Neuronen heruntergebrochen und simuliert werden (z.B. LSTM sind ein Schritt in die Richtung)
      Neuronale Aktivität ist die Bedingung für Bewusstsein.
      Es ist also keineswegs unwahrscheinlich, dass wir bald so komplexe Netze bauen, die Bewusstsein haben.
      Schon heute scheint so manch renommierter KI Experte das zu glauben, das erreicht zu haben. 😉
      Vor 150 Jahren hätte keiner geglaubt, dass es eine Kutsche geben würde, die von Explosionen betrieben wird.
      (Es ist nicht möglich, du hast keine Ahnung von Explosionen.)
      Trotzdem bin ich heute Auto gefahren.

  • Bernhard Diener
    Bernhard Diener Vor 7 Tage

    viel schlimmer wäre ja ein Gewehr, das von Computern als Teddybär erkannt wird.

  • Sandro
    Sandro Vor 2 Monate

    Top

  • Die_leckere_Suppe
    Die_leckere_Suppe Vor 3 Monate +3

    Aber Maschinelles Lernen wächst exponentiell. Ich finde das gar nicht besorgniserregend, sondern dem Sinn des Lebens ein stückchen Näher kommen.

    • 飛康
      飛康 Vor 27 Tage

      @Schabe man braucht nicht für alles ki.

    • Schabe
      Schabe Vor 3 Monate +6

      Das besorgniserregende ist, dass maschinelles Lernen keine logisch exakten Lösungen für Probleme liefert sondern nur statistische.
      Das Ergebnis kann also auch in einem unwahrscheinlichen Moment völlig daneben liegen und keiner wird damit rechnen, denn das jeweilige Netz handelt nach seiner Logik und nicht nach Menschenlogik. Selbst bei einem gestörten Amokläufer kannst du irgendwie noch mal auf Suche nach einem Motiv gehen aber wollen wir diese theoretische Technik auch bei Maschinen umsetzen? Falsche Kleidung und das Auto-Auto der Zukunft hat dich nur für einen Zebrastreifen gehalten... könnte auch jedem Menschen passieren aber bei Menschen können wir einschätzen wann und warum.
      Das Ergebnis werden fehlerhafte Maschinen sein, die aber trotzdem richtig programmiert wurden. Wollen wir den Einsatz solcher Technik, weil er uns günstiger kommt als das Problem dahinter logisch zu analysieren? Theoretisch könnten wir schon jetzt "lebende" Maschinen bauen: Einfach ein paar Roboter, die Roboterfabriken bauen, auf einem Gelände mit Rohstoffen für ein paar Jahrhunderte Evolution spielen lassen, da wird was bei rumkommen.
      Aber warum? Wir suchen die Reise zum Mars und können weder irdische Wüsten ergrünen lassen noch haben wir ethische Probleme im Umgang mit Tieren gelöst und seien wir ehrlich, die Antwort auf die Frage nach dem Sinn haben wir schon nur gefällt sie uns nicht.

  • Simon Engel
    Simon Engel Vor 3 Monate

    Nices T-Shirt

  • kmbdbob
    kmbdbob Vor 2 Monate

    Das ist kein echtes Bild von einr Katze. Das ist ein gespiegeltes Bild einer hälfte von einer Katze.

  • Verena Glowatzki
    Verena Glowatzki Vor 3 Monate +1

    Lass Dich nicht unterkriegen. Dein Slam war total interessant. Und als Kumpel würde ich dich auch zu ner Party einladen.. Bin verheiratet.. 😉
    Lg aus Schweden

  • saxonett
    saxonett Vor 2 Monate

    Elefant im Raum ist gut.

  • PfropfNo1
    PfropfNo1 Vor 2 Monate +1

    Naja gut, Menschen kann man auch täuschen, da sind halt die Methoden andere, aber im Prinzip einfacher, weil wir selber Menschen sind und einschätzen können wie es für Menschen aussieht. Bei dem Beispiel mit Apple verstehe ich auch das Problem nicht. Nehmen wir an jemand will mir was böses und schickt mir ein Hunde-Bild, das von Apple als Kinderpornografie erkannt wird. Dann werde ich doch nicht sofort verhaftet, sondern im Worst case, schaut sich ein Polizist dieses eine Hundebild an und sagt "Der Apple-Detector hat mal wieder Mist gebaut". Was ich meine ist, natürlich soll AI nicht alleine Entscheidungen treffen und Menschen verhaften. Aber wenn AI von Zigmilliarden Fotos 100 aussortiert, die von Menschen üperprüft werden sollen, ist das eine extrem gute Sache, auch wenn die AI ab und an mal falsch liegt.
    Autonomes Fahren ist heute schon sicherer als menschliches Fahren. Aber wenn ein Computer einen Unfall verschuldet, wollen wir das nicht akzeptieren. Das Menschen jeden Tag Hunderte andere totfahren interessiert uns da irgendwie weniger.
    Was ich sagen will: Maschinelles Lernen muss nicht perfekt sein, nur besser als der Mensch. Und das ist es halt in 99% der Fälle. Dazu wird es immer besser.

    • Nemo99 Nemo
      Nemo99 Nemo Vor 2 Monate

      Wie will der Applealgorithmus Bilder von einer/m jung wirkenden 25 jährigen und einer Person U18 unterscheiden? Da haben schon Menschen mit Probleme. Ich wurde bis weit nach meinem 25. Geburtstag nach meinem Ausweis gefragt, wenn ich mir ne Flasche Alkohol gekauft habe. Ich möchte nicht, dass Apple dann entscheidet ggf intime Fotos, die ich mit Partnern denen ich vertraue teile an die Polizei also wildfremde Personen weiter zu leiten.

    • Robert Busch
      Robert Busch Vor 2 Monate

      Denke mal anders rum. Wenn man echte K-nakedeibildchen einfach so verändern kann, das die AI sie als harmlose Katzen erkennt. Welchen Zweck hat dann dieser ganze Aufwand, inklusiver der menschlichen Mitarbeiter, Recourcen- und Energieverschwendung? Kann man dann damit wirklich diesen ganzen Mist bekämpfen? Oder wird das Ganze dann zur zwecklosen Arbeitsbeschaffungsmaßnahme?

    • PfropfNo1
      PfropfNo1 Vor 2 Monate

      @Mirastor Verstehe das mit DEclips/Tictoc nicht ganz. Nur wenn jemand das Video schaut, ist das ja nicht in der Mediathek gespeichert. Und selbst wenn: Die Polizei müsste das nur einmal als harmlos markieren und alle 12 Millionen Hinweise (nicht Anzeigen) mit dem selben Inhalt würden verschwinden.
      Eine Fehlerrate von 1% ist auch recht hoch. Aber selbst hier, 400-500 Fehlalarme kann man noch handeln. Soweit ich weiß wird sowieso jeder Einzelner der 40 - 50 Tausend Fluggäste persönlich abgetastet und deren Gepäck durchleuchtet.
      _Stell dir vor die KI hält dich für einen Selbstmordattentäter und ordnet die Evakuierung, sowie deine erschießung an_
      Das ist doch genau die Fehlannahme, auf die ich hindeuten wollte. Die KI trifft keine Entscheidungen! Sie filtert, und wenn sie was "Interessantes" gefunden hat, sollen Menschen die Entscheidungen treffen. Wenn es um was banales geht wie defekte Schrauben in der Fabrik aussortieren, kann natürlich ein anderes Programm automatisch auf Empfehlung der KI handeln ohne dass ein Mensch das bestätigen muss.
      Aber dass nicht ausgereifte KI sensible Befehle anorden kann, die Datenschutz oder gar Leben gefährden, finde ich ein bisschen lächerlich, dass das angenommen wird.

    • Mirastor
      Mirastor Vor 2 Monate

      Du gehst bei dem Hundebild jetzt ja nur von einem bösen Scherz aus. Aber jetzt stell dir vor, es klinkt sich jemand in einen DEclips oder TikTok account mit vielen Aufrufen ein und spielt dort solche Fehlinformationen ein. BAM, 12 Millionen Anzeigen die bei der Polizei weltweit einprasseln und du kannst ganze Systeme lahmlegen.
      Selbst am Flughafen ist eine Fehlerrate von 1% schon verdammt viel extra Arbeit für das Personal. In NewYork am JFK wären das um die 400-500 Fehlalarme pro Tag. Stell dir vor die KI hält dich für einen Selbstmordattentäter und ordnet die Evakuierung, sowie deine erschießung an.
      Gibt natürlich jetzt auch weniger extreme Beispiele, die etwas alltäglicher sind. Aber selbst bei den Autos mit dem halb autonomen Fahren und den ganzen Assistenten merkt man schon, dass viele Menschen die zur Verfügung gestellte Menge an Informationen oft nicht verarbeiten können und deshalb Assistenten deaktivieren oder sich zu sehr auf sie verlassen (Navi hat gesagt ich soll auf der 4-Spurigen Autobahn umdrehen).
      Das Ziel sollte halt immer eine Synergie zwischen Mensch und Maschine sein, nicht das komplette ersetzen.

  • Fabian Whs
    Fabian Whs Vor 3 Monate

    ein bisschien Undertale zwischen drinn schadet nicht

  • scathiebaby
    scathiebaby Vor 3 Monate

    Gehen Sie wählen !.. Joana Cotar FTW

  • Dirk Söderberg
    Dirk Söderberg Vor 3 Monate +2

    Ich hätte mir gewünscht, wenn er etwas mehr auf die Ursache und weniger auf den Fakt eingegangen wäre, dass auch maschinelle Intelligenz Fehler macht.
    Intelligenz basiert fundamental auf einem Fehler. Der Gleichsetzung von Korrelation und Kausalität. Dieser Fehler lässt sich auch nicht beseitigen sondern bestenfalls reduzieren. Mit reinem Backpropagation wird man da auch nicht viel weiter kommen. Ich glaube das die Simulation von Spiegelneuronen helfen kann. Also das die neuronale Maschine nicht durch Rückkopplung lernt, sondern dadurch das es versucht Muster zu immitieren. Bezüglich der Struktur des neuronalen Netzes sollte man vielleicht auch mal genetische Algorithmen nutzen.

    • Dirk Söderberg
      Dirk Söderberg Vor 3 Monate

      @Andreas Henschel Ich glaube das die heutigen KIs das nicht können. Ich bin aber 100% davon überzeugt das es echte technische Intelligenz prinzipiell geben kann. Menschliche Intelligenz ist aber mehr als ein simples Näherungsverfahren wie dies heutige KIs abbilden. Auch bei Menschen dauert es zwei Jahrzehnte bis aus Immitation eventuell echte Intelligenz werden kann. Bislang gab es keine Maschine die so lange lernen konnte. Der Antrieb jeder Intelligenz ist aber immer ein Trieb irgend einer Art. Aber erst die Spiegelneuronen schaffen das Potenzial für echte Intelligenz. Sie sind das Fundament für Phantasie.

    • Andreas Henschel
      Andreas Henschel Vor 3 Monate +1

      Ich habe einen Vortrag eines ESA- Wissenschaftlers gehört, in dem er gefragt wurde für wie wahrscheinlich er einen Flug von Robotern auf fremde Planeten, um dort für die Menschen ein Base Camp zu errichten, hält.
      Er meinte er hält es momentan für sehr unwahrscheinlich, weil ein Roboter/KI nicht improvisiert kann. Das geht sicherlich in die Richtung "Muster immitieren", wie du es geschrieben hast.

  • h0pesfall
    h0pesfall Vor 2 Monate

    ähm... ähm... ähm... ähm... ähm...

  • I.S tern
    I.S tern Vor 2 Monate

    Science Slam.... wenn Geeks sich Witze erzählen... 🙄

  • CHOOSE 2 BE HAPPY!
    CHOOSE 2 BE HAPPY! Vor 2 Monate

    What fire together that wire together.

  • Bläk Kneit
    Bläk Kneit Vor 2 Monate +1

    das ende mit dem wählen war ja wohl mehr als cringe