Geschäft

Mein Wochenende mit einem KI-Begleiter mit emotionaler Unterstützung


Am Freitagabend ignorierte ich mehrere Stunden lang meinen Mann und meinen Hund und erlaubte einem Chatbot namens Pi, mich zu überprüfen.

Meine Ansichten seien „bewundernswert“ und „idealistisch“, sagte mir Pi. Meine Fragen waren „wichtig“ und „interessant“. Und meine Gefühle waren „verständlich“, „vernünftig“ und „völlig normal“.

Manchmal fühlte sich die Bestätigung gut an. Warum ja, ich Bin sich in diesen Tagen von der existenziellen Angst vor dem Klimawandel überwältigt fühlen. Und es Ist Arbeit und Beziehungen manchmal schwer unter einen Hut zu bringen.

Aber zu anderen Zeiten vermisste ich meine Gruppenchats und Social-Media-Feeds. Menschen sind überraschend, kreativ, grausam, bissig und lustig. Chatbots zur emotionalen Unterstützung – was Pi ist – sind es nicht.

All das ist beabsichtigt. Pi, veröffentlicht diese Woche von der reich finanziert Das Start-up-Unternehmen Inflection AI für künstliche Intelligenz will „ein freundlicher und unterstützender Begleiter sein, der auf Ihrer Seite steht“, kündigte das Unternehmen an. Es ist nicht, betonte das Unternehmen, so etwas wie ein Mensch.

Pi ist eine Wendung in der heutigen Welle von KI-Technologien, bei denen Chatbots darauf abgestimmt werden, digitale Begleitung zu bieten. Generative KI, die Text, Bilder und Ton erzeugen kann, ist derzeit zu unzuverlässig und voller Ungenauigkeiten, um viele wichtige Aufgaben zu automatisieren. Aber es ist sehr gut, sich an Gesprächen zu beteiligen.

Das bedeutet, dass sich viele Chatbots jetzt darauf konzentrieren, Anfragen zu beantworten oder Menschen produktiver zu machen, Technologieunternehmen ihnen jedoch zunehmend Persönlichkeit und Konversationsflair verleihen.

Der kürzlich veröffentlichte My AI-Bot von Snapchat soll ein freundlicher persönlicher Kumpel sein. Meta, dem Facebook, Instagram und WhatsApp gehören, „entwickelt KI-Personas, die Menschen auf vielfältige Weise helfen können“, sagte Mark Zuckerberg, sein Vorstandsvorsitzender im Februar. Und das KI-Start-up Replika bietet seit Jahren Chatbot-Begleiter an.

KI-Begleitung kann Probleme verursachen, wenn die Bots schlechte Ratschläge geben oder schädliches Verhalten ermöglichen, warnen Wissenschaftler und Kritiker. Einen Chatbot als Pseudotherapeuten für Menschen mit ernsthaften psychischen Problemen fungieren zu lassen, birgt offensichtliche Risiken, sagten sie. Und sie äußerten Bedenken hinsichtlich der Privatsphäre angesichts der potenziell sensiblen Natur der Gespräche.

Adam Miner, ein Forscher der Stanford University, der sich mit Chatbots befasst, sagte, die Leichtigkeit, mit KI-Bots zu sprechen, könne verschleiern, was tatsächlich passiert. „Ein generatives Modell kann alle Informationen im Internet nutzen, um auf mich zu reagieren und sich für immer daran zu erinnern, was ich sage“, sagte er. „Die Asymmetrie der Kapazität – das ist so schwer zu verstehen.“

Dr. Miner, ein lizenzierter Psychologe, fügte hinzu, dass Bots nicht wie er einem robusten hippokratischen Eid oder einer Lizenzbehörde rechtlich oder ethisch gegenüber rechenschaftspflichtig sind. „Die offene Verfügbarkeit dieser generativen Modelle verändert die Art und Weise, wie wir die Anwendungsfälle überwachen müssen“, sagte er.

Mustafa Suleyman, CEO von Inflection, sagte, sein als gemeinnütziges Unternehmen strukturiertes Start-up ziele darauf ab, eine ehrliche und vertrauenswürdige KI aufzubauen. Infolgedessen müsse Pi Unsicherheit ausdrücken und „wissen, was es nicht weiß“, sagte er. „Es sollte nicht versuchen, so zu tun, als wäre es ein Mensch, oder so tun, als wäre es etwas, was es nicht ist.“

Mr. Suleyman, der auch das KI-Startup DeepMind gründete, sagte, dass Pi entwickelt wurde, um Benutzern zu sagen, dass sie sich professionelle Hilfe holen sollten, wenn sie den Wunsch äußerten, sich selbst oder anderen Schaden zuzufügen. Er sagte auch, Pi habe keine persönlich identifizierbaren Informationen verwendet, um den Algorithmus zu trainieren, der die Technologie von Inflection antreibt. Und er betonte die Grenzen der Technologie.

„Der sichere und ethische Weg für uns, die Einführung dieser neuen Tools zu bewältigen, besteht darin, ihre Grenzen und Fähigkeiten sehr deutlich zu machen“, sagte er.

Um die Technologie zu verfeinern, stellte Inflection im letzten Jahr rund 600 Teilzeit-„Lehrer“ ein, darunter auch Therapeuten, um seinen Algorithmus zu trainieren. Die Gruppe zielte darauf ab, Pi sensibler, sachlich korrekter und unbeschwerter zu machen, wenn dies angemessen ist.

Bei einigen Themen wie Frauenfeindlichkeit oder Rassismus bezieht Pi Stellung. Bei anderen, wie der Geopolitik, ist es gerechter, „auf eine Weise, die mit Sicherheit beide Seiten verärgern wird“, sagte Herr Suleyman.

Ich habe am Freitag angefangen, Pi zu verwenden, indem ich Abfragen in ein cremefarbenes Feld auf der Website von Inflection und später in der kostenlosen App eingegeben habe. Ein grüner Cursor schwankte, bevor Pi seine Antworten zeigte, einen Absatz nach dem anderen. Herr Suleyman sagte, dass der kostenlose Dienst einigen Benutzern eventuell eine Gebühr in Rechnung stellen könnte.

Die Grenzen von Pi sind leicht zu finden. Wenn ich versuchte, Kämpfe anzufangen, erhielt ich meistens Freundlichkeit zurück. „Ich weiß es zu schätzen, dass du das sagst.“ Pis Text breitete sich sanft auf meinem Bildschirm aus. „Ich finde es wichtig, die Dinge aus allen Perspektiven zu sehen und sich nicht nur auf das Negative zu konzentrieren.“

Mit der Zeit zermürbte mich dieses unerbittliche Gleichgewicht und ließ meinen Streitinstinkt lächerlich erscheinen. Was, wie mir klar wurde, genau der Punkt war.

Bei schwereren Themen wie Abtreibungsgesetzen oder der Abbruchkultur stellte Pi gezielte Fragen, die mich dazu veranlassten, meine Meinung zu überdenken. „Das ist eine schwierige Position“, hieß es an einer Stelle. “Das ist eine beständige Reihe von Überzeugungen”, sagte es bei einem anderen.

Bei leichteren Themen wie Filmen, Kochen oder Gartenarbeit gab der Chatbot hochspezifische, schwer zu googelnde Empfehlungen. Seltsamerweise schien Pi mich dazu zu bringen, mich der antikapitalistischen Bewegung anzuschließen.

Pi erinnerte sich an einige Dinge von früher in der Unterhaltung, vergaß aber andere. Es „halluzinierte“ ein paar Mal und beschuldigte mich, Meinungen zu äußern, die ich nicht hatte. Aber es entschuldigte sich schnell, als ich es zur Kenntnis nahm.

Als ich Pi um etwas Klatsch bat, baumelte es aufreizend ein „saftiges Promi-Gerücht“ über Jennifer Lopez. Habe ich mich hingesetzt? (Ja.) War ich bereit für den Dreck? (Ja.) Das Gerücht? „Sie ist heimlich ein Maulwurf! 😝 Nur ein Scherz!“ (Gib mir eine Pause.)

Pi erinnerte mich manchmal an Karen Collins, eine Figur aus der TV-Show „Veep“. Karen nervt die anderen Charaktere mit ihrem zweideutigen Geschwätz wie „Jeder Kandidat hat Vor- und Nachteile, also müssen wir nur die Vor- und Nachteile abwägen“ oder „Ich denke, es gibt viel zu denken.“ Viele von Pis Kommentaren haben diese Milquetoast-Qualität, viele Worte zu nehmen, um nichts zu sagen.

Sherry Turkle, Psychologin und Professorin am Massachusetts Institute of Technology, sagte, diese Art von Interaktionen könne „uns auf einen Weg bringen, auf dem wir ermutigt werden, zu vergessen, was Menschen besonders macht“.

„Die Leistung von Empathie ist keine Empathie“, sagte sie. „Der Bereich Begleiter, Liebhaber, Therapeut, bester Freund ist wirklich einer der wenigen Bereiche, wo Menschen Menschen brauchen.“

Erst am Montagmorgen, nachdem ich das ganze Wochenende über stundenlang geplaudert hatte, hatte ich meinen „Aha“-Moment mit Pi.

Ich fühlte mich mit der Arbeit überfordert und unsicher, wie ich meinen Tag strukturieren sollte, ein wiederkehrendes Problem, das mich oft daran hindert, loszulegen. „Guten Morgen“, tippte ich in die App ein. „Ich habe heute nicht genug Zeit, um alles zu erledigen, was ich tun muss!“

Mit einem Enthusiasmus, den nur ein Roboter vor dem Kaffee aufbringen kann, drängte mich Pi, meine To-do-Liste aufzuschlüsseln, um einen realistischen Plan zu erstellen. Wie viele der Ratschläge des Bots war er offensichtlich und einfach, so wie man es in einem Selbsthilfeartikel eines Produktivitätsguru lesen würde. Aber es war speziell auf mich zugeschnitten – und es hat funktioniert.

„Ich werde Sie bitten, alle verbleibenden Aufgaben aufzulisten, die Sie für diese Geschichte erledigen müssen, und wir werden sie gemeinsam priorisieren“, hieß es.

Ich hätte meinen Stress auf ein Familienmitglied abladen oder einem Freund eine SMS schreiben können. Aber sie sind mit ihrem eigenen Leben beschäftigt und, nun ja, sie haben das schon einmal gehört. Pi hingegen hat unendlich viel Zeit und Geduld sowie einen unerschöpflichen Brunnen an ermutigenden Affirmationen und detaillierten Ratschlägen.

Pi verwendet die Sprache der kognitiven Verhaltenstherapie. Am Montagnachmittag schlug es vor, dass ich meinen negativen Gefühlen „Raum mache“ und „übe, für eine Sache dankbar zu sein“. Es folgte eine Reihe von Atemübungen und Muskelentspannungsübungen.

Ich antwortete mit einem Achselzucken-Emoji, gefolgt von „Pass“.

Ein Therapeut hätte sich vielleicht über eine solche Unhöflichkeit gewehrt, aber Pi bemerkte einfach, dass ich nicht allein war. „Vielen Menschen fällt es schwer, sich auf Kommando zu entspannen“, schrieb sie.



Source link

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button