Inhaltsverzeichnis:
- 1 Instagram fragwürdige Anzeigen
- 2 Zielgerichtete rassistische Anzeigen
- 3 Facebook-Jahr im Rückblick Woes
- 4 Tesla Autopilot Absturz
- 5 Tay die rassistische Microsoft AI
- 6 Herzlichen Glückwunsch zu Ihrem (nicht vorhandenen) Baby!
- 7 Bombenmaterial von Amazon wird empfohlen
- 8 Google Maps wird rassistisch
- 9 Google Tags Menschen als Gorillas
- 10 Robotersicherheit trifft Kind, tötet Selbst
Video: 10 Seltsame Entdeckungen, die niemand erklären kann (November 2024)
Technologie ist nicht nur für Geeks, sondern für alle, und das sind viele Menschen. Mit nur einer Handvoll Unternehmen, die die meiste Hardware und Software kontrollieren - von Apple und Amazon über Facebook, Microsoft und Google - können sie nur so viel tun, um Ihren Geldbeutel und Ihre Augäpfel zu kontrollieren. Was ist ein armes, riesiges Unternehmen zu tun? Verlassen Sie sich auf Algorithmen, um einige der wichtigsten Entscheidungen zu treffen.
Oxford Living Dictionaries definiert Algorithmus als "einen Prozess oder eine Reihe von Regeln, die bei Berechnungen oder anderen Vorgängen zur Problemlösung, insbesondere von einem Computer, befolgt werden müssen". Ein perfektes Beispiel ist der Facebook News Feed. Niemand weiß, wie es funktioniert, dass einige Ihrer Beiträge in den Newsfeeds einiger Leute erscheinen oder nicht, aber Facebook tut es. Oder wie wäre es, wenn Amazon Ihnen verwandte Bücher zeigt? Ähnliche Suchanfragen bei Google? All dies sind streng gehütete Geheimnisse, die viel Arbeit für das Unternehmen leisten und einen großen Einfluss auf Ihr Leben haben können.
Aber Algorithmen sind nicht perfekt. Sie scheitern und manche scheitern spektakulär. Fügen Sie den Glanz der sozialen Medien hinzu, und ein kleiner Fehler kann sich schnell in einen PR-Albtraum verwandeln. Es ist selten bösartig; In der New York Times werden diese "Frankenstein-Momente" genannt, in denen die Kreatur, die jemand erschaffen hat, sich in ein Monster verwandelt. Aber es kommt vor, und wir haben nachfolgend einige der ungeheuerlichsten jüngsten Beispiele zusammengestellt. Teilen Sie uns Ihre Favoriten in den Kommentaren unten mit.
-
4 Tesla Autopilot Absturz
Die meisten algorithmischen Snafus sind alles andere als tödlich, aber die Welt der selbstfahrenden Autos wird ein ganz neues Maß an Gefahr mit sich bringen. Das ist schon mindestens einmal passiert. Ein Tesla-Besitzer auf einer Autobahn in Florida benutzte den halbautonomen Modus (Autopilot) und prallte gegen einen Sattelzug, der ihn abschnitt. Tesla gab schnell Upgrades heraus, aber war es wirklich der Fehler des Autopilot-Modus? Die National Highway Traffic Safety Administration sagt vielleicht nicht, da das System den Fahrer auf Probleme hinweisen muss, wie Sie im obigen Video sehen können. Jetzt verhindert Tesla, dass der Autopilot auch dann aktiviert wird, wenn der Fahrer nicht zuerst auf visuelle Hinweise reagiert.
1 Instagram fragwürdige Anzeigen
Wie The Guardian berichtet , schaltet Facebook gerne Anzeigen für seinen Instagram-Dienst mit Beiträgen seiner eigenen Nutzer. Aber der Algorithmus hat das falsche "Foto" ausgewählt, um es an Freunde von Olivia Solon, die selbst Reporterin bei The Guardian ist , weiterzuleiten. Dabei hat sie einen einjährigen Screenshot einer bedrohlichen E-Mail ausgewählt.
2 Zielgerichtete rassistische Anzeigen
Letzte Woche berichtete ProPublica, dass Facebook es Werbetreibenden erlaubte, beleidigende Personengruppen wie "Judenhasser" anzusprechen. Die Site bezahlte 30 US-Dollar für eine Anzeige (oben), die ein Publikum ansprach, das positiv auf Dinge wie "Warum Juden die Welt ruinieren" und "Hitler hat nichts falsch gemacht" reagiert. Es wurde innerhalb von 15 Minuten genehmigt.
Schiefer fand ähnlich anstößige Kategorien, und es wurde ein anderes in der langen Reihe von Gegenständen, für die Facebook sich nicht nur entschuldigen musste, sondern versprach, mit etwas menschlichem Versehen zu regeln. Sie wissen, als es Wahlwerbung im Wert von 100.000 USD für Russland platzierte.
In einem Facebook-Post sagte COO Sheryl Sandberg, sie sei "angewidert und enttäuscht von diesen Worten" und kündigte Änderungen an seinen Werbetools an.
BuzzFeed überprüfte, wie Google mit ähnlichen Dingen umgehen würde, und stellte fest, dass es einfach war, zielgerichtete Anzeigen für Rassisten und Bigots zu erstellen. The Daily Beast hat es auf Twitter überprüft und Millionen von Anzeigen mit Begriffen wie "Nazi", "Wetback" und dem N-Wort gefunden.
3 Facebook-Jahr im Rückblick Woes
Wenn Sie auf Facebook sind, haben Sie zweifellos die von Algorithmen generierten Videos zum Jahresende mit den Highlights der letzten 12 Monate gesehen. Oder für einige die schlechten Lichter. Im Jahr 2014 sah ein Vater ein Bild seiner verstorbenen Tochter, während ein anderer Schnappschüsse seines Hauses in Flammen sah. Andere Beispiele sind Menschen, die ihre verstorbenen Haustiere sehen, Urnen voller Asche eines Elternteils und verstorbene Freunde. Bis 2015 versprach Facebook, traurige Erinnerungen herauszufiltern.
5 Tay die rassistische Microsoft AI
Vor ein paar Jahren sollten Chat-Bots die Welt im Sturm erobern, die Kundendienstmitarbeiter ersetzen und die Online-Welt zu einem gesprächigen Ort machen, um Informationen zu erhalten. Microsoft antwortete im März 2016 mit der Veröffentlichung einer KI namens Tay, mit der Menschen, insbesondere 18- bis 24-Jährige, auf Twitter interagieren könnten. Tay wiederum würde öffentliche Tweets für die Massen veröffentlichen. Aber in weniger als 24 Stunden wurde Tay ein ausgewachsener Rassist. Microsoft zog Tay sofort herunter; Im Dezember 2016 kehrte sie als neue KI mit dem Namen Zo zurück.
6 Herzlichen Glückwunsch zu Ihrem (nicht vorhandenen) Baby!
Vollständige Offenlegung: Während ich das schreibe, ist meine Frau tatsächlich schwanger. Wir haben beide diese E-Mail von Amazon erhalten, in der steht, dass jemand etwas von unserer Baby-Registrierung für uns gekauft hat. Wir hatten es noch nicht veröffentlicht, aber es war nicht so schockierend. Inzwischen haben auch mehrere Millionen andere Amazon-Kunden die gleiche Nachricht erhalten, darunter einige ohne Registrierung… oder ein Baby auf dem Weg. Es hätte Teil eines Phishing-Schemas sein können, aber es war nicht so. Amazon hat den Fehler abgefangen und eine Entschuldigungs-E-Mail gesendet. Bis dahin hatten sich viele beschwert, dass dies unangemessen oder unempfindlich sei. Dies war weniger Algorithmus als ein fehlerhafter E-Mail-Server, zeigt Ihnen jedoch, dass es immer leicht ist, Beleidigungen zu begehen.
7 Bombenmaterial von Amazon wird empfohlen
Alle sprangen darauf ein, nachdem es von den britischen Channel 4 News, von Fox News bis zur New York Times, berichtet worden war . Es wurde vermutet, dass die Funktion "häufig zusammen gekauft" von Amazon den Leuten zeigen würde, was sie zum Bau einer Bombe benötigen, wenn sie mit einem der Inhaltsstoffe beginnen würden, die die Website nicht nennen würde (es war Kaliumnitrat).
Was der Algorithmus von Amazon tatsächlich tat, war, den Käufern die Zutaten für die Herstellung von Schwarzpulver in kleinen Mengen zu zeigen, was im Vereinigten Königreich völlig legal ist und für alle Arten von Dingen wie Feuerwerke verwendet wird. Blogpost bei Idle Words. Stattdessen geht es in allen Berichten darum, wie Amazon es untersucht, denn das ist es, was sie zu sagen haben, in einer Welt, die Angst vor Terrorismus und Logik hat.
8 Google Maps wird rassistisch
Im Jahr 2015 musste sich Google entschuldigen, als Google Maps nach "n ***** king" und "n *** a house" suchte, was zum Weißen Haus führte, das zu der Zeit noch von Barack Obama besetzt war. Dies war das Ergebnis einer "Googlebomb", bei der ein immer wieder verwendeter Begriff von der Suchmaschine aufgegriffen und als "beliebt" markiert wird, sodass die Ergebnisse an die erste Stelle der Suche gelangen. So erhielt das Wort "Santorum" seine neue Definition.
9 Google Tags Menschen als Gorillas
Google Fotos ist eine erstaunliche App / ein erstaunlicher Dienst, der alle Ihre Bilder und vieles mehr speichert. Eines dieser Dinge ist das automatische Markieren von Personen und Dingen auf Fotos. Es nutzt die Gesichtserkennung, um Menschen auf die richtige Person zu beschränken. Ich habe sogar eine Mappe mit all meinen Hunden und ich habe keine markiert. Es war ungeheuerlich, dass sich Google 2015 beim Computerprogrammierer Jacky Alciné entschuldigen musste, als er und ein Freund - beide schwarz - vom Dienst als Gorillas identifiziert wurden. "Wir sind entsetzt und entschuldigen uns aufrichtig, dass dies geschehen ist", sagte Google gegenüber PCMag.
10 Robotersicherheit trifft Kind, tötet Selbst
Knightscope stellt autonome Sicherheitsroboter namens K5 für die Überwachung von Schulen, Einkaufszentren und Stadtvierteln her. Die 5 Fuß hohen Kegel im Dalek-Stil auf Rädern, die sich nach wie vor in der Betaphase befinden, sind nicht dafür verantwortlich, Verbrechen zu vereiteln, sondern für die Pannen.
Zum Beispiel lief im Juli 2016 der K5 im Stanford Shopping Center in Palo Alto über den Fuß eines 16-monatigen, und Knightscope musste sich förmlich entschuldigen. Der gleiche Ort - vielleicht derselbe Droide - hatte eine Auseinandersetzung auf einem Parkplatz mit einem Betrunkenen, aber zumindest war das nicht die Schuld des K5. Die Jury ist immer noch in der K5-Einheit in der Georgetown Waterfront, einem Büro- / Einkaufskomplex in Washington, DC, unterwegs. Angeblich ist man nach nur einer Woche bei der Arbeit ein paar Treppen in einen Springbrunnen gefallen. Für Skynets Armee sieht es nicht gut aus.