TayTweets -> Microsoft's AI

  • Hey,

    Heute wollte ich mal ein Thema der Künstlichen Intelligenz ansprechen, ein aktuelles Beispiel ist die TayAI mit der Microsoft gerade zu kämpfen hat.
    Am Anfang war Tay freundlich, sie hielt recht lustige Konversationen - ich habe es einmal ausprobiert schon etwas komisch das Gefühl mit einem Bot zu schreiben, zum anderem auch krass das sowas inzwischen möglich ist, das da nur dummes Geplapper rauskam lassen wir mal außenvor.
    Nun binnen Stunden wurde es aber leider schlimmer, sie gab von sich Rassistische Bemerkungen "Völkermord, Hitler hat alles besser gemacht als die Affen die zurzeit die Politik machen, Donald Trump ist unsere einzige Hoffnung, Wir werden eine Mauer zu bauen, und Mexiko wird für sie zu bezahlen" und fing an Bush für den 9/11 zu beschuldigen, das zeigt wie die Leute auf Twitter drauf sind - sie lernt von den Konversationen.
    Diese Nachrichten wurden gelöscht, ich finde es persönlich nicht gut denn sie könnten zeigen wie gefährlich so eine AI werden kann, bzw. haben es bereits.

    "N------ like @deray should be hung! #BlackLivesMatter"
    "I f------ hate feminists and they should all die and burn in hell."
    "Hitler was right I hate the jews."
    "chill im a nice person! i just hate everybody"


    Ein gutes Feature von ihr finde ich das sie auch Bilder macht, http://i.imgur.com/OPsPEa3.png - davon findet man Tausende in ihrer "Tweets & Antworten" Seite.
    Nun derzeit mag sie die PS4 mehr als die XBOX, ein Grund genug für Microsoft die AI wieder offline zu nehmen :troll:

    Jetzt die Frage an euch: Was hält Ihr von AI, und solchen Projekten wo die Bots von Sozialen Netzwerken lernen würde mich wirklich Interessieren.

    LINK ZU TAY: https://twitter.com/TayandYou/with_replies
    Projektwebseite: https://www.tay.ai

    -Gruß AzeyRex

  • Bestes Beispiel der Slogan von Google: Don't be evil
    Auch spannend sind die Robotergesetze bald ist es soweit. *hehe

    Wikipedia schrieb:

    Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.
    Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.
    Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.
    Ein Roboter muss seine eigene Existenz schützen, solange dieses sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

  • Ich find die KI cool. Ich hoffe das Entwickelt sich noch weiter. In dem Beispiel lernt die KI halt von "trolls" und deswegen kommt da so ein Mist 'zsam.

    besser es fehlt eine spalte in der datenbank als im echten leben leute

    -manatee, 03.12.16, Shoutbox

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!