Die Woche in der KI: Generative KI spammt das Web
HeimHeim > Nachricht > Die Woche in der KI: Generative KI spammt das Web

Die Woche in der KI: Generative KI spammt das Web

Jun 21, 2023

Mit einer so schnelllebigen Branche wie der KI Schritt zu halten, ist eine große Herausforderung. Bis eine KI dies für Sie erledigen kann, finden Sie hier eine praktische Zusammenfassung der neuesten Geschichten aus der Welt des maschinellen Lernens sowie bemerkenswerte Forschungsergebnisse und Experimente, die wir nicht alleine behandelt haben.

Diese Woche ist SpeedyBrand, ein Unternehmen, das generative KI zur Erstellung SEO-optimierter Inhalte nutzt, mit Unterstützung von Y Combinator aus der Tarnung hervorgekommen. Es hat noch nicht viel Geld eingeworben (2,5 Millionen US-Dollar) und sein Kundenstamm ist relativ klein (etwa 50 Marken). Aber es brachte mich zum Nachdenken darüber, wie generative KI beginnt, die Struktur des Webs zu verändern.

Wie James Vincent von The Verge kürzlich in einem Artikel schrieb, machen es generative KI-Modelle billiger und einfacher, Inhalte von geringerer Qualität zu generieren. NewsGuard, ein Unternehmen, das Tools zur Überprüfung von Nachrichtenquellen bereitstellt, hat Hunderte werbefinanzierte Websites mit allgemein klingenden Namen aufgedeckt, die Fehlinformationen enthalten, die mit generativer KI erstellt wurden.

Es stellt ein Problem für Werbetreibende dar. Viele der von NewsGuard hervorgehobenen Websites scheinen ausschließlich darauf ausgelegt zu sein, programmatische Werbung oder die automatisierten Systeme zur Platzierung von Anzeigen auf Seiten zu missbrauchen. In seinem Bericht fand NewsGuard fast 400 Anzeigen von 141 großen Marken, die auf 55 Junk-News-Websites erschienen.

Nicht nur Werbetreibende sollten sich Sorgen machen. Wie Kyle Barr von Gizmodo betont, bedarf es möglicherweise nur eines KI-generierten Artikels, um Berge an Engagement anzukurbeln. Und selbst wenn jeder KI-generierte Artikel nur ein paar Dollar einbringt, ist das weniger als die Kosten für die Erstellung des Textes überhaupt – und potenzielle Werbegelder, die nicht an seriöse Websites gesendet werden.

Was ist also die Lösung? Ist dort eines? Es sind ein paar Fragen, die mich zunehmend nachts wach halten. Barr schlägt vor, dass es die Aufgabe von Suchmaschinen und Werbeplattformen sei, die schlechten Akteure, die generative KI nutzen, stärker in den Griff zu bekommen und zu bestrafen. Aber angesichts der Geschwindigkeit, mit der sich das Feld entwickelt – und der unendlichen Skalierbarkeit der generativen KI – bin ich nicht davon überzeugt, dass sie mithalten können.

Natürlich sind Spam-Inhalte kein neues Phänomen und es gab bereits Wellen. Das Web hat sich angepasst. Der Unterschied besteht dieses Mal darin, dass die Eintrittsbarriere dramatisch niedrig ist – sowohl im Hinblick auf die Kosten als auch auf die Zeit, die investiert werden muss.

Vincent schlägt einen optimistischen Ton an und deutet an, dass, wenn das Internet irgendwann mit KI-Schrott überschwemmt wird, dies die Entwicklung besser finanzierter Plattformen vorantreiben könnte. Ich bin mir nicht sicher. Es besteht jedoch kein Zweifel daran, dass wir uns an einem Wendepunkt befinden und dass die jetzt getroffenen Entscheidungen rund um die generative KI und ihre Ergebnisse noch einige Zeit lang Auswirkungen auf die Funktion des Webs haben werden.

Hier sind weitere bemerkenswerte KI-Geschichten der letzten Tage:

OpenAI führt GPT-4 offiziell ein: OpenAI gab diese Woche die allgemeine Verfügbarkeit von GPT-4, seinem neuesten Textgenerierungsmodell, über seine kostenpflichtige API bekannt. GPT-4 kann Text (einschließlich Code) generieren und Bild- und Texteingaben akzeptieren – eine Verbesserung gegenüber GPT-3.5, seinem Vorgänger, der nur Text akzeptierte – und schneidet bei verschiedenen professionellen und akademischen Benchmarks auf „menschlichem Niveau“ ab. Aber es ist nicht perfekt, wie wir in unserer vorherigen Berichterstattung festgestellt haben. (Mittlerweile soll die Akzeptanz von ChatGPT zurückgegangen sein, aber wir werden sehen.)

„Superintelligente“ KI unter Kontrolle bringen:In anderen OpenAI-Nachrichten bildet das Unternehmen ein neues Team unter der Leitung von Ilya Sutskever, seinem Chefwissenschaftler und einem der Mitbegründer von OpenAI, um Möglichkeiten zur Steuerung und Kontrolle „superintelligenter“ KI-Systeme zu entwickeln.

Anti-Voreingenommenheitsgesetz für NYC:Nach monatelangen Verzögerungen begann New York City diese Woche mit der Durchsetzung eines Gesetzes, das Arbeitgeber, die Algorithmen zur Einstellung, Einstellung oder Beförderung von Mitarbeitern verwenden, dazu verpflichtet, diese Algorithmen einer unabhängigen Prüfung vorzulegen – und die Ergebnisse zu veröffentlichen.

Valve erteilt stillschweigend grünes Licht für KI-generierte Spiele: Valve gab eine seltene Erklärung ab, nachdem es behauptet hatte, dass es Spiele mit KI-generierten Assets aus seinem Steam-Games-Store ablehne. Der bekanntermaßen verschwiegene Entwickler sagte, seine Politik sei eine Weiterentwicklung und keine Haltung gegen KI.

Humane enthüllt den Ai Pin: Humane, das Startup des ehemaligen Apple-Design- und Ingenieursduos Imran Chaudhri und Bethany Bongiorno, enthüllte diese Woche Details zu seinem ersten Produkt: The Ai Pin. Wie sich herausstellt, handelt es sich bei Humanes Produkt um ein tragbares Gerät mit einem projizierten Display und KI-gestützten Funktionen – wie ein futuristisches Smartphone, aber in einem völlig anderen Formfaktor.

Warnungen zur EU-KI-Regulierung:Große Tech-Gründer, CEOs, VCs und Branchenriesen in ganz Europa haben diese Woche einen offenen Brief an die EU-Kommission unterzeichnet, in dem sie davor warnen, dass Europa die generative KI-Revolution verpassen könnte, wenn die EU Gesetze verabschiedet, die Innovationen unterdrücken.

Deepfake-Betrug macht die Runde: Schauen Sie sich diesen Clip an, in dem der britische Verbraucherfinanzexperte Martin Lewis offenbar eine von Elon Musk unterstützte Investitionsmöglichkeit in Anspruch nimmt. Scheint normal zu sein, oder? Nicht genau. Es ist ein von der KI erzeugter Deepfake – und möglicherweise ein Vorgeschmack auf das von der KI erzeugte Elend, das sich rasend schnell auf unseren Bildschirmen ausbreitet.

KI-betriebene Sexspielzeuge: Lovense – vielleicht am besten bekannt für seine fernsteuerbaren Sexspielzeuge – kündigte diese Woche seinen ChatGPT Pleasure Companion an. Der „Advanced Lovense ChatGPT Pleasure Companion“, der in der Beta-Version der Fernbedienungs-App des Unternehmens gestartet wurde, lädt Sie ein, sich spannenden und erotischen Geschichten hinzugeben, die der Companion basierend auf dem von Ihnen ausgewählten Thema erstellt.

Unser Forschungsrückblick beginnt mit zwei sehr unterschiedlichen Projekten der ETH Zürich. Das erste ist aiEndoscopic, ein Spin-off für intelligente Intubation. In vielen Fällen ist die Intubation für das Überleben eines Patienten notwendig, es handelt sich jedoch um einen kniffligen manuellen Eingriff, der normalerweise von Spezialisten durchgeführt wird. Der intuBot nutzt Computer Vision, um eine Live-Übertragung aus Mund und Rachen zu erkennen und darauf zu reagieren und die Position des Endoskops zu steuern und zu korrigieren. Dies könnte es Menschen ermöglichen, bei Bedarf sicher zu intubieren, anstatt auf den Spezialisten warten zu müssen, was möglicherweise Leben retten könnte.

Hier erklären sie es etwas ausführlicher:

In einem völlig anderen Bereich haben Forscher der ETH Zürich auch einen zweiten Beitrag zu einem Pixar-Film geleistet, indem sie Pionierarbeit bei der Technologie geleistet haben, die erforderlich ist, um Rauch und Feuer zu animieren, ohne der fraktalen Komplexität der Fluiddynamik zum Opfer zu fallen. Ihr Ansatz wurde von Disney und Pixar für den Film „Elemental“ bemerkt und weiterentwickelt. Interessanterweise handelt es sich weniger um eine Simulationslösung als vielmehr um eine Stilübertragungslösung – eine clevere und scheinbar recht wertvolle Abkürzung. (Das Bild oben stammt von diesem.)

KI in der Natur ist immer interessant, aber Natur-KI in ihrer Anwendung auf die Archäologie ist es umso mehr. Die von der Universität Yamagata geleitete Forschung zielte darauf ab, neue Nasca-Linien zu identifizieren – die riesigen „Geoglyphen“ in Peru. Man könnte meinen, dass sie, da sie vom Orbit aus sichtbar sind, ziemlich offensichtlich wären – aber Erosion und Baumbewuchs in den Jahrtausenden seit der Entstehung dieser mysteriösen Formationen bedeuten, dass sich eine unbekannte Anzahl gerade außer Sichtweite versteckt. Nachdem ein Deep-Learning-Modell mit Luftbildern bekannter und verdeckter Geoglyphen trainiert worden war, wurde es für andere Ansichten freigegeben und entdeckte erstaunlicherweise mindestens vier neue, wie Sie unten sehen können. Ziemlich aufregend!

Vier Nasca-Geoglyphen neu von einem KI-Agenten entdeckt.Bildnachweis:Yamagata-Universität

In einem unmittelbar relevanteren Sinne findet KI-nahe Technologie immer neue Aufgaben bei der Erkennung und Vorhersage von Naturkatastrophen. Stanford-Ingenieure stellen Daten zusammen, um zukünftige Modelle zur Vorhersage von Waldbränden zu trainieren, indem sie Simulationen von erhitzter Luft über einem Walddach in einem 30-Fuß-Wassertank durchführen. Wenn wir die Physik von Flammen und Glut modellieren wollen, die sich über die Grenzen eines Lauffeuers hinaus ausbreiten, müssen wir sie besser verstehen, und dieses Team tut sein Möglichstes, um dem näher zu kommen.

An der UCLA untersuchen sie, wie sich Erdrutsche vorhersagen lassen, die häufiger auftreten, wenn sich Brände und andere Umweltfaktoren ändern. Aber obwohl KI bereits mit einigem Erfolg zur Vorhersage eingesetzt wurde, zeigt sie nicht, was sie bewirkt, was bedeutet, dass eine Vorhersage nicht erklärt, ob sie auf Erosion, eine Verschiebung des Grundwasserspiegels oder tektonische Aktivität zurückzuführen ist. Bei einem neuen Ansatz eines „überlagerbaren neuronalen Netzwerks“ verwenden die Schichten des Netzwerks unterschiedliche Daten, laufen jedoch parallel und nicht alle zusammen, wodurch die Ausgabe etwas spezifischer wird, wenn Variablen zu einem erhöhten Risiko führen. Es ist auch viel effizienter.

Google steht vor einer interessanten Herausforderung: Wie bringt man ein maschinelles Lernsystem dazu, aus gefährlichem Wissen zu lernen, es aber nicht zu verbreiten? Wenn sein Trainingsset beispielsweise das Rezept für Napalm enthält, möchten Sie nicht, dass es es wiederholt – aber um zu wissen, dass es es nicht wiederholt, muss es wissen, was es nicht wiederholt. Ein Paradox! Deshalb sucht der Technologieriese nach einer Methode des „maschinellen Verlernens“, die einen solchen Balanceakt sicher und zuverlässig ermöglicht.

Wenn Sie einen tieferen Einblick in die Frage suchen, warum Menschen scheinbar ohne guten Grund KI-Modellen vertrauen, sind Sie in diesem Science-Editorial von Celeste Kidd (UC Berkeley) und Abeba Birhane (Mozilla) genau richtig. Es geht auf die psychologischen Grundlagen von Vertrauen und Autorität ein und zeigt, wie aktuelle KI-Agenten diese grundsätzlich als Sprungbrett nutzen, um ihren eigenen Wert zu steigern. Es ist ein wirklich interessanter Artikel, wenn Sie dieses Wochenende schlau klingen möchten.

Obwohl wir oft von der berüchtigten Fake-Schachmaschine Mechanical Turk hören, inspirierte diese Scharade die Menschen dazu, das zu erschaffen, was sie vorgab zu sein. IEEE Spectrum hat eine faszinierende Geschichte über den spanischen Physiker und Ingenieur Torres Quevedo, der einen echten mechanischen Schachspieler geschaffen hat. Seine Fähigkeiten waren begrenzt, aber daran erkennt man, dass es real war. Manche behaupten sogar, seine Schachmaschine sei das erste „Computerspiel“ gewesen. Denkanstöße.

OpenAI führt GPT-4 offiziell ein:„Superintelligente“ KI unter Kontrolle bringen:Anti-Voreingenommenheitsgesetz für NYC:Valve erteilt stillschweigend grünes Licht für KI-generierte Spiele:Humane enthüllt den Ai Pin:Warnungen zur EU-KI-Regulierung:Deepfake-Betrug macht die Runde:KI-betriebene Sexspielzeuge:Bildnachweis: