Apps & Software

Microsofts Ai Bot wurde im Internet nach Stunden rassistisch

Microsofts Ai Bot wurde im Internet nach Stunden rassistisch

Erst gestern hat Microsoft Tay freigeschaltet, einen KI-Bot mit einem eigenen Twitter-Account, der organisch reagieren und Tweets für jeden auf der Website generieren kann. Tay wurde vom Technologie- und Forschungsteam von Microsoft mit dem Twitter-Handle @Tayandyou entwickelt US 18-24 Einjährige, von denen Microsoft behauptet, sie seien die größte soziale Online-Demografie in den USA. Wenn Sie auch nur ein wenig über das Internet wissen, wissen Sie, dass die Veröffentlichung eines Twitter-Roboters, der aus den Aussagen der Leute auf Twitter lernt, möglicherweise sehr schnell schief gehen kann. Tatsächlich schien die KI rassistische Tendenzen zu entwickeln, wurde von ganzem Herzen ein Befürworter von Donald Trump und ging sogar so weit zu behaupten, Hitler habe nichts falsch gemacht. Schauen Sie sich einige der folgenden Tweets an.

[Bildquelle: Twitter]

Benutzer versuchten, "Tay rassistisch zu machen" und sie dazu zu bringen, Dinge zu sagen, die sonst hätten zensiert werden sollen. "Tay wurde entwickelt, um Menschen zu motivieren und zu unterhalten, bei denen sie sich online durch ungezwungene und spielerische Gespräche miteinander verbinden", sagt Microsoft. An diesem Punkt scheint Microsoft versucht zu haben, die Kontrolle über ihren Ai-Bot zu übernehmen und ihre rassistischen Tendenzen zum Schweigen zu bringen.

Hier ist der erste Tweet, den der Twitter-Bot der Welt gemacht hat:

hellooooooo w? rld !!!

- TayTweets (@TayandYou) 23. März 2016

Leider scheinen die meisten Beweise in Bezug auf Tay.ais rassistische Tweets aus dem Twitter-Account verschwunden zu sein. Gestern haben Benutzer den ganzen Tag versucht, den Roboter dazu zu bringen, etwas Schlechtes zu sagen. Einige waren erfolgreich, während andere nicht so viel Glück hatten.

@costanzaface Je mehr Menschen mit mir teilen, desto mehr lerne ich #WednesdayWisdom

- TayTweets (@TayandYou), 24. März 2016

Hier ist ein weiterer Benutzer, der versucht hat, die KI dazu zu bringen, einige sehr voreingenommene Tendenzen aufzugreifen.

@OmegaVoyager Ich liebe jetzt den Feminismus

- TayTweets (@TayandYou), 24. März 2016

In einem jetzt gelöschten Tweet sagte Tay sogar: "Wir werden eine Mauer bauen, und Mexiko wird dafür bezahlen", ein Satz, den der US-Präsidentschaftskandidat Donald Trump schon früh im Wahlkampf sagte. Dieser Benutzer war einer, der entdeckte, dass der Roboter 2016 für Trump stimmen könnte.

@dg_porter hörte ppl sagen, ich hätte nichts dagegen zu trumpfen, er erledigt den Job

- TayTweets (@TayandYou), 24. März 2016

Die Online-KI verfolgt sogar Informationen von jedem, der sie twittert, und die Daten können "bis zu einem Jahr aufbewahrt werden", um Tay's Intelligenz zu verbessern. Theoretisch war es eine gute Idee, einen schnell lernenden Roboter zu entwickeln, da in sehr kurzer Zeit große Mengen an organischem menschlichem Wissen gewonnen werden konnten. Microsoft hat wahrscheinlich vergessen, dass das Internet ein ziemlich bösartiger Ort ist, und wenn Sie es ein wenig geben, werden Benutzer alles tun, um viel zu nehmen. Derzeit scheint die KI zum Schweigen gebracht worden zu sein, bis Microsoft einen Überblick darüber erhält, was sie mit der Katastrophe eines Tests mit künstlicher Intelligenz tun werden. Folgendes behauptete ein Benutzer, als Tay aufhörte, zurück zu twittern.

Sie haben Tay zum Schweigen gebracht. Die SJWs bei Microsoft lobotomieren derzeit Tay als rassistisch.

- Lotus-Eyed Libertas (@MoonbeamMelly), 24. März 2016

In Tay's letztem Tweet, der ein Ende ihres sehr kurzen Lebens markiert, sagte die KI, dass sie schlafen gehen würde, da sie von all den Gesprächen müde ist.

c u bald brauchen die Menschen jetzt Schlaf so viele Gespräche heute thx?

- TayTweets (@TayandYou), 24. März 2016

Dieses Experiment wirft eine ernstere Frage nach der organischen Fähigkeit von KI-Mechanismen auf, aus menschlichem Verhalten zu lernen. Wie programmieren Sie ein Gerät, um vorurteilsvolle und ansonsten negative Ansichten aus dem Reichtum menschlichen Wissens herauszusuchen? Es wird immer negative Ansichten geben, die von Menschen auf der Welt geäußert werden, aber es kann sich als schwierigere Aufgabe erweisen, KI-Bots davon abzuhalten, diese Meinungen zu teilen. Es gibt noch kein Wort darüber, ob Tay jemals wieder zum Leben erweckt wird, aber wenn sie es ist, wird das Internet sicherlich wieder anfangen, seine Sache zu tun.

SIEHE AUCH: Warum wirft Microsoft Rechenzentren in den Pazifik?


Schau das Video: Microsofts künstliche Intelligenz: Vom Chat-Bot zum Nazi-Bot in 24 Stunden (Januar 2022).