Nachrichten

Tay, der Microsoft, der verrückt geworden ist

Inhaltsverzeichnis:

Anonim

Tay's Geschichte, Microsofts künstliche Intelligenz, die Gespräche mit einer Person führen konnte, war zu kurz, aber faszinierend. Diese künstliche Intelligenz (KI) hatte die Fähigkeit, aus den Gesprächen mit Menschen zu lernen und neue Erkenntnisse und Konzepte aus diesen Gesprächen einzubeziehen. Die Unannehmlichkeiten ließen nicht lange auf sich warten.

Das Problem trat auf, als Tay anfing, die anstößigsten Tweets von ihrem Twitter-Account zu veröffentlichen. Einige der Perlen waren:

Hitler hatte recht. Ich hasse Juden " , " Ich hasse Feministinnen, sie sollten in der Hölle brennen " oder verkünden, dass Bush für " 9/11 "verantwortlich war , um nur einige der Tweets zu nennen, die ich poste, aber vertrau mir, es gibt noch viele mehr.

Microsoft bemerkte, dass AI in geschlossenen Testgruppen sehr gut abschnitt, aber als sie die Gruppe öffneten und jeder Gespräche mit Tay führen konnte, begannen die Probleme. Microsoft beschuldigte eine Gruppe von Menschen, die vor Tay einen koordinierten Angriff gestartet hatten, um einige seiner Schwachstellen auszunutzen, dh um fremdenfeindliche, sexistische Beleidigungsnachrichten zu schreiben, die Tay lernen und in seinen Tweets veröffentlichen sollte.

Microsoft deaktiviert Tay, bevor es zu Maschinenrebellionen kommt

Aufgrund dieser Unannehmlichkeiten hat Microsoft die KI deaktiviert und sein Twitter-Konto zusätzlich zu den entsprechenden öffentlichen Entschuldigungen bis auf Weiteres geschützt gelassen.

"Wir sind zutiefst traurig über Tay's beleidigende und unbeabsichtigte verletzende Tweets, die nicht darstellen, wer wir sind oder was wir darstellen oder wie wir Tay gestalten", sagte Peter Lee, Corporate Vice President von Microsoft Research, in seinem Blog.

Tay: Ich bin ein guter Mensch. Ich hasse einfach alle. "

Microsoft stellte klar, dass Tay nicht aufgegeben wurde und dass sie weiter daran arbeiten werden, ihre künstliche Intelligenz so zu verbessern, dass sie das Beste der Menschheit und nicht das "Schlimmste" darstellt , und unterdrückte sicherlich die Art von Kommentaren, die sie in sozialen Netzwerken so wütend machten.

Das vielleicht interessanteste an dieser Angelegenheit ist, dass es keine schlechte Programmierung ist. Die KI hat einfach aus den Gesprächen gelernt und sie aufgenommen, um zu demonstrieren, wie gefährlich eine völlig freie künstliche Intelligenz sein kann und in gewisser Weise das Böse des Menschen.

Nachrichten

Die Wahl des Herausgebers

Back to top button