Zuhause Vorausdenken Codekonferenz: YouTube, Facebook, Twitter befasst sich mit der Reduzierung von schlechten Inhalten

Codekonferenz: YouTube, Facebook, Twitter befasst sich mit der Reduzierung von schlechten Inhalten

Inhaltsverzeichnis:

Video: Die wahren Demokraten und ihre unfassbar schlechte Politik (November 2024)

Video: Die wahren Demokraten und ihre unfassbar schlechte Politik (November 2024)
Anonim

In Anlehnung an andere Tech-Konferenzen konzentrierte sich die diesjährige Code Conference auf die Nachteile der Tech- und insbesondere der sozialen Medien. Die Verantwortlichen von Instagram, Twitter und YouTube äußerten sich zu ihren Richtlinien, fragwürdige Inhalte zu entfernen oder nicht zu veröffentlichen.

Alle diese Führungskräfte schienen eine Variation des folgenden Gesprächs zu haben: Ja, es gibt schlechte Dinge auf unserer Plattform. Wir hätten es früher wissen müssen. Wir versuchen Dinge besser zu machen. Aber es ist schwer. Es tut uns leid, wenn Sie beleidigt waren.

Alles macht Sinn, aber es besänftigt nicht alle Kritiker oder bringt die Stimmen zum Schweigen, die eine Trennung oder zumindest eine stärkere Regulierung der großen Tech-Plattformen fordern. Hier ist, was einige der Führungskräfte und einige der Kritiker auf der Messe sagten.

Youtube

Die CEO von YouTube, Susan Wojcicki, beschrieb Änderungen an der Hassrede-Richtlinie der Plattform und sagte, dass, wenn in einem Video behauptet wird, dass eine Gruppe (wie eine Rasse oder eine Religion) überlegen ist, dies nicht mehr zulässig ist. Auch Videos, die behaupten, dass eine andere Gruppe minderwertig ist, werden nicht gezeigt. Sie sagte, dass die Firma auch mehr Gruppen zur geschützten Liste hinzufügte, einschließlich Kasten in Indien und Opfer der überprüften gewalttätigen Ereignisse (wie der Holocaust). Sie sagte, dies seien nur einige der vielen politischen Änderungen, die das Unternehmen im vergangenen Jahr vorgenommen habe. Sie sprach auch über die Beschränkung der Verbreitung von "Borderline-Inhalten", damit einige Videos, die nicht blockiert werden, nicht in YouTube-Empfehlungen enthalten sind und nicht zur Monetarisierung zur Verfügung stehen. Dies habe ihre Sichtweite um 80 Prozent verringert.

Aber sie räumte ein, dass all dies weiterhin zu Kontroversen geführt hat, indem sie sich zu Beginn ihres Interviews bei der LGBTQ-Community entschuldigte und sagte, sie verstehe, dass ihre Entscheidungen dieser Community schaden würden, aber das war nicht die Absicht. Die Kontroverse betrifft die Entscheidung von YouTube, das Verbleiben von Videos von Stephen Crowder auf der Website zuzulassen, obwohl Carlos Maza von Vox beanstandete, dass Crowder ihn und andere mit Kommentaren gegen LGBTQ belästigte. (Vox führt die Code-Konferenz durch.)

"Der Kontext ist wirklich wichtig", sagte Wojcicki und sagte, bevor die Firma ein Video entferne, werde geprüft, ob ein Video der Belästigung gewidmet sei oder ein einstündiges Video mit einer rassistischen Beleidigung, ob es sich um eine öffentliche Figur handele und ob es böswillig sei in absicht. Sie sagte, dass die Feststellung, dass etwas böswillig ist, eine hohe Messlatte für das Unternehmen darstellt und dass es die Richtlinien konsequent durchsetzen muss, da es immer Videos geben würde, über die sich Menschen beschweren. Sie bemerkte, dass man in Sachen Rap-Songs, Late-Night-Talks und viel Humor eine Menge rassistischer und sexistischer Kommentare finden kann. Sie sagte, das Unternehmen wolle daran arbeiten, die Richtlinien zu ändern, anstatt auf eine einzelne Instanz zu reagieren.

Am Ende sagte sie, das Unternehmen habe entschieden, dass diese Videos keine Belästigung darstellen und nicht gegen die Richtlinien verstoßen. Dies sei die richtige Entscheidung. Sie sagte jedoch, dass das Unternehmen die Monetarisierung aussetze und der Videokünstler von der Schaltung von Anzeigen im Video profitiere.

Sie sagte, dass es so viele andere Inhalte geben würde, wenn YouTube dieses Video entfernen würde, dass es entfernt werden müsste. Aber sie sagte, dass die Firma die Dinge einstellen wird und dass viele der Änderungen, die an der Hasspolitik vorgenommen wurden, der LGBTQ-Community wirklich zugute kommen und dazu führen werden, dass Videos heruntergefahren werden. Und sie wiederholte eine Entschuldigung für den Schaden, den es verursacht haben könnte.

Auf die Frage von Konferenzleiter Peter Kafka, ob die Größe von YouTube - mit 2 Milliarden Nutzern und 500 Stunden pro Minute hochgeladenem Video - das Problem niemals lösen könne, sagte Wojcicki: "Wir können definitiv verbessern, wie wir die Plattform verwalten, und ich verstehe, wie viel haben wir verbessert. " Sie merkte an, dass das Unternehmen in den letzten zwei Jahren einen Rückgang der Anzahl gewalttätiger Inhalte um 50 Prozent verzeichnet habe und dass über 10.000 Menschen an Inhalten gearbeitet hätten. Aber sie konzentrierte sich wieder auf schlechte Dinge auf der Plattform und bemerkte, dass es auch viele großartige Inhalte gab. "Die ganze Sorge geht um diesen Bruchteil von einem Prozent des Inhalts", sagte sie. Sie räumte jedoch ein, dass es eine Menge Arbeit zu tun gibt, um diesen Inhalt zu adressieren, und sagte, dass das Unternehmen in Tools investiert und hart daran arbeitet, dies zu adressieren.

Sie wischte einen Vorschlag beiseite, dass es eine Barriere für das Hochladen von Videos geben könnte, und sagte: "Wir würden viele Stimmen verlieren." Aber sie sprach davon, mehr "vertrauenswürdige Schichten" von Videos zu haben, damit jeder mit dem Hochladen von Dingen beginnen kann, aber bestimmte Regeln einhalten müsste, um eine breitere Verbreitung zu erreichen.

"Wir sehen alle diese Vorteile der Offenheit", sagte sie, merkte jedoch an, dass YouTube dafür verantwortlich ist, den Inhalt zu verstehen und zu entscheiden, was empfohlen und gefördert werden sollte.

Wojcicki sagte, sie glaube, YouTube und Google würden einer stärkeren Regulierung gegenüberstehen und auf neue Urheberrechtsbestimmungen in Europa hinweisen, aber es sei wichtig, dass die Regulierungsbehörden verstehen, wie diese Dinge auf vernünftige Weise umgesetzt werden können, da die Gefahr unbeabsichtigter Konsequenzen besteht.

Auf die Frage von Kevin Roose von der New York Times, ob YouTube zur Radikalisierung der Politik beigetragen hat (basierend auf einer jüngsten Geschichte, die er gemacht hat), sagte Wojcicki, die Site habe die Radikalisierungsbedenken sehr ernst genommen und im Januar eine Reihe von Änderungen vorgenommen, die die Empfehlungen reduzierten von "borderline content" um 50 Prozent.

Sie sagte, YouTube möchte eine breite Palette von Meinungen anbieten, wobei die Nutzer auswählen, was sie sehen möchten, war aber besorgt, und sie meinte, solche Änderungen an Richtlinien und Empfehlungen würden einen Unterschied bewirken.

Instagram und Facebook

Zwei Facebook-Manager sprachen darüber, wie Facebook und insbesondere Instagram mit der Kritik umgegangen sind.

Adam Mosseri, Leiter von Instagram, sagte, wir sehen "einen Paradigmenwechsel in Richtung privaterer Kommunikationsformen" und merkten an, dass das gesamte Wachstum bei Instagram auf Geschichten und Nachrichten beruhte. Er bemerkte, dass Geschichten flüchtig sind, während der Feed besser ist, wenn Sie Dinge wollen, die für immer da sind. Er bemerkte, dass es in Geschichten nicht um "Utility Messaging" gehe, sondern um "Gesprächsstarter".

Mosseri sagte, das Unternehmen habe "viele hitzige Debatten", da es ein echtes Spannungsverhältnis zwischen Datenschutz und Sicherheit gibt. Er sagte: "Wir haben uns darauf geeinigt, dass die Nachrichtenübermittlung absolut privat sein sollte", stimmte jedoch zu, dass das Unternehmen Zeit für die Arbeit und Zeit braucht, um Workarounds für die Sicherheit zu finden.

Andrew Bosworth, der die künstliche Realität, die virtuelle Realität und andere fortschrittliche Projekte für Facebook beaufsichtigt, stellte fest, dass Datenschutz manchmal Datenschutz von Facebook bedeutet, andere jedoch Datenschutz von der Regierung oder vom Gerät fordern. In der Vergangenheit meinte er, Datenschutz für Facebook bedeute Kontrolle über Daten und wer sie sehen könne. Aber er bemerkte, dass es sich auf unterschiedliche Weise auswirkt, und er sagte, das "globale Gespräch wird keine Antwort haben", da verschiedene Märkte unterschiedliche Ansichten von staatlicher Kontrolle und Sicherheit hatten.

Auf die Frage von Casey Newton von Verge , ob es gut wäre, Facebook aufzubrechen und Instagram zu einem eigenen Unternehmen zu machen, sagte Mosseri: "Es könnte viel mein Leben erleichtern, und es würde wahrscheinlich für mich als Einzelperson von Vorteil sein, aber Ich finde es einfach eine schreckliche Idee. " Er sagte, dass es bei Themen wie Wahlintegrität und Hassreden für Instagram nur exponentiell schwieriger werden würde, die Sicherheit seiner Nutzer zu gewährleisten. Er sagte, er habe ursprünglich versprochen, Instagram von Facebook unabhängig zu halten, aber dieses Versprechen in Bezug auf Sicherheitsfunktionen gebrochen, da bei Facebook mehr Menschen an Sicherheit und Integrität arbeiten als an der Gesamtzahl der Menschen, die bei Instagram arbeiten.

Mosseri sagte, es sei grundsätzlich gesund, die Aufforderung zur Rechenschaftspflicht durchzugehen, und Facebook habe einen Fehler begangen, indem es sich nicht genug auf die unbeabsichtigten Folgen in den Anfangsjahren konzentriert habe. "Wir müssen mehr tun, um die Guten zu fördern und auszubauen und die Schlechten anzusprechen", sagte er.

Bosworth sagte, dass, wenn eine Website klein ist, alle Inhalte überprüft werden können, obwohl dies uns Bedenken hinsichtlich des Datenschutzes bringt. Wenn es größer wird, können Sie nicht alle Inhalte manuell überprüfen, sondern erhalten mehr Ressourcen und eine "Skaleneffizienz". Er stimmte zu, dass Facebook "massiv dahinter steckt", sagte jedoch, das Unternehmen investiere massiv in das Unternehmen und erklärte, es sei ein lösbares Problem, und das Unternehmen arbeite sowohl an technischen Lösungen als auch mit den Aufsichtsbehörden daran, wie es reagieren solle. Man komme der Lösung nicht näher, indem man sich in Teams aufteilt und jedem Team weniger Ressourcen zur Verfügung stellt, fügte er hinzu.

Auf die Frage, ob Facebook diese Probleme nicht lösen kann, weil es werbefinanzierte Dienste anbietet, sagte Bosworth: "Es kostet uns viel mehr, irgendeinen dieser Randinhalte auf der Plattform zu haben." Er sagte, Facebook habe Zehntausende von Menschen, die Inhalte überprüften. Wenn die Firma rücksichtslos wäre und alle umstrittenen Reden loswerden würde, wäre das effektiver.

Mosseri sagte, dass wir stolz darauf sein sollten, dass Sie diesen Service kostenlos nutzen können. Das Unternehmen gibt an, dass Werbung es dem Unternehmen ermöglicht, dies zu tun, und sie wird hauptsächlich von Menschen bezahlt, die es sich leisten können. Wenn Sie Werbung abschneiden, schneiden Sie Menschen ab.

Eine Änderung, die Instagram testet, ist das Verbergen von "Likes" auf dem System. Mosseri sagte, wir wollen nicht, dass Instagram "eine unter Druck stehende Umgebung" ist, und merkt an, wie gut Wettbewerb sein kann. Er war optimistisch, Vorlieben und Zählungen privat zu machen, sagte aber, es sei nur ein Experiment.

Mosseri sprach auch über das Portal-Gerät des Unternehmens, mit dem er die Funktionalität des Tisches gezielt beließ, indem er die Aufzeichnung von Gesprächen überflüssig machte. Er sagte, dass wir eine neue Generation von Hardware mit intelligenten Lautsprechern sehen, aber dass Facebook sicherstellen wollte, dass "menschliche Verbindung nur von Erstanbietern genutzt wird", aber mit eingebautem Datenschutz.

Bosworth merkte an, dass Facebook VR als "eine Gelegenheit sieht, tiefer zu gehen" und bedeutungsvolle Erfahrungen zu machen, auch wenn Sie nicht dort sein können

Twitter

Zwei Twitter-Manager sprachen ähnliche Themen an und stellten sich der Behauptung von Kara Swisher, Co-Vorsitzender der Konferenz, dass die Plattform eine "Sackgasse" ist, die auf Menschen aufgebaut ist, die sagen können, was sie wollen und dann schreckliche Dinge sagen.

Laut Kayvon Beykpour, dem Produktleiter von Twitter, soll Twitter "die Öffentlichkeit zum Reden bringen". Der Zweck der Website sei "das öffentliche Gespräch zu fördern", was "den Menschen hilft, zu lernen, Probleme zu lösen und uns zu erkennen "Das ist der Ausgangspunkt, aber er sagte, dass es eine" existenzielle Krise "gibt, denn wenn das Gespräch nicht gesund ist, werden die Leute nicht mitmachen wollen.

Beykpour merkte an, dass die meisten Leute auf Twitter keine großen Plattformen haben, sondern Dutzende oder Hunderte von Followern, und dass die Leute den Service nutzen, um Leute mit gleichgesinnten Interessen zu finden.

Laut Vijaya Gadde, dem Verantwortlichen für Recht, öffentliche Ordnung und Sicherheit bei Twitter, setzte sich das Unternehmen ursprünglich für eine vollkommen freie Meinungsäußerung ein, war sich jedoch der Auswirkungen, die wir haben, jetzt jedoch bewusster. Sie sagte, die Firma habe einen politischen Rahmen, der sich auf grundlegende Menschenrechte wie Sicherheit und freie Meinungsäußerung konzentriere.

Sie merkte an, dass die Firma jetzt mit einem Mangel an Vertrauen und Fehlinformationen auf der Plattform zu tun hatte. Im April gab sie im Rahmen der Wahlen in Indien und Europa bekannt, dass das Unternehmen neue Richtlinien eingeführt habe, um Fehlinformationen darüber, wie man sich zur Abstimmung anmeldet oder wo man abstimmt, einzudämmen. Sie sagte, dies sei immer noch ein Lernprozess, zum Beispiel, dass einige Witze gestrichen wurden. In anderen Bereichen, sagte sie, wenn Sie nach Informationen über Impfstoffe suchen, werden Sie jetzt zu vertrauenswürdigen Quellen weitergeleitet. Ziel ist es insbesondere, "Offline-Schaden" für Menschen zu verhindern.

Gadde stellte fest, dass Twitter eine "historische Präferenz hat, nicht der Schiedsrichter der Wahrheit zu sein", gab jedoch zu, dass es schwierig sei, dies in großem Maßstab zu tun. Stattdessen habe die Firma versucht, Inhalte zu verbessern, die aus seriösen Quellen stammten. Mit der Zeit werde die Firma mehr tun müssen und beobachte, was andere Plattformen tun.

Beykpour sagte, dass Twitter in der Vergangenheit "überrotiert" hat, wenn es darum geht, Lösungen durch Richtlinien und Durchsetzung zu finden, nicht durch Produkte und Technologien. Er sagte, das Unternehmen habe Fortschritte in Gesundheitsfragen erzielt und werde weitere Fortschritte erzielen. Er stellte fest, dass die Firma gerade eine neue vereinfachte Richtlinie herausgegeben hat, die einfacher zu lesen ist und eine bessere Durchsetzung ermöglichen würde. Derzeit, sagte er, 40 Prozent der Tweets der Firma "Aktionen" werden proaktiv durchgeführt, im Gegensatz zu Beschwerden.

Er sagte, dass die Firma den Inhalt entstärkt und die neuen Richtlinien die Anzahl der gemeldeten Missbräuche um 45 Prozent reduziert haben. und die Anzahl der Kontosperren um 30 Prozent. Darüber hinaus stellte er fest, dass das Unternehmen jetzt weitere Anmeldungen in Frage stellt und blockiert, um zu verhindern, dass sich ein böswilliger Account anmeldet. Aber es gibt immer noch Probleme wie das Erraten von brutalen Passwörtern.

Nach der Befürchtung gefragt, dass Social-Media-Plattformen zu einer zunehmenden Radikalisierung führen könnten, gab Gadde zu, dass dies Besorgnis erregend war. "Ich denke, es gibt Inhalte auf Twitter und auf jeder Plattform, die zur Radikalisierung beitragen", sagte sie. Sie fügte jedoch hinzu, dass das Unternehmen über eine Reihe von Mechanismen und Richtlinien verfügt, die dem entgegenwirken. Sie sagte, dass 90 Prozent aller terroristischen Inhalte sofort entfernt werden und 110 gewalttätige extremistische Gruppen verboten wurden.

Gadde sagte, dass die Regeln von Twitter "ein lebendiges Dokument sind", wobei neue Forschungsergebnisse auf neue Schäden reagieren und das Unternehmen beraten, ob es mehr gibt, als wir tun können. Sie bemerkte, dass "auch auf privaten Plattformen schlimme Dinge passieren". Weil Twitter völlig offen sei, könne jeder sehen und antworten. Sie bemerkte jedoch, dass Offenheit ein Nachteil sein kann, da sie den Menschen eine Plattform bietet. Sie sagte, das Unternehmen habe versucht, das richtige Gleichgewicht zwischen dem öffentlichen Interesse und der Fähigkeit zum Anzeigen und Reagieren sowie den Problemen zu finden, die der Inhalt verursachen könnte. Sie stellte fest, dass das Unternehmen an globalen Lösungen arbeiten muss, da 80 Prozent der Nutzer nicht in den USA waren

Sie sprach über die Wichtigkeit von Transparenz und über die Regeln. Sie erwähnte aber auch die Aktualität von Inhalten und merkte an, dass diese Inhalte bei öffentlichen Persönlichkeiten Aufmerksamkeit erregen würden, selbst wenn Twitter einen Tweet löschen würde.

Als Antwort auf eine Publikumsfrage sagte Gadde, Twitter sei "sehr, sehr auf Radikalisierung ausgerichtet". Wenn man behauptet, mit gewalttätigen extremistischen Gruppen in Verbindung zu stehen, könne man nicht auf Twitter sein. Aber sie sagte, die Firma habe noch viel zu tun, um zu verstehen, wie sie mehr tun könne, und diese Änderungen würden sich ändern. Auf eine andere Frage zu Missbrauch, der sich an Frauen richtete, antwortete sie, dass es einen großen Unterschied machen werde, Twitter proaktiver zu machen. Aber sie sagte, sie sorge sich sehr darum, Stimmen zum Schweigen zu bringen, insbesondere von Minderheiten und Frauen.

Laut Beykpour besteht eine mögliche Lösung darin, den Kunden mehr Kontrolle darüber zu verschaffen, wie sie sich auf der Plattform sicherer fühlen können. Beispielsweise können Autoren Antworten innerhalb eines Konversationsthreads moderieren. Er sprach auch über neue Arten von Gesprächen und bemerkte, dass das aktuelle Twitter nur öffentliche Tweets sind, die für immer leben und direkte Nachrichten sind. Er bemerkte, dass die Firma zwischendurch Dinge wie ein öffentliches Gespräch, das auf vier Personen beschränkt sein könnte, nicht unterstützt, aber überlegt.

Mittel

Ev Williams, CEO von Medium und Mitbegründer von Blogger und Twitter, konzentrierte sich mehr auf Medium, einen Abonnementdienst, der seiner Meinung nach in einem gesunden Tempo wächst, aber keine Zahlen liefert. Er sagte, die Leute abonnierten den Service für Ideen und Perspektiven in Themen von Gesundheit über JavaScript bis hin zu literarischem Schreiben.

Er diskutierte, wie wichtig die Bündelung von Inhalten sein kann. Er sagte, er sei "sehr optimistisch in Bezug auf Abonnements für redaktionelle Inhalte", aber dass es für viele Websites schwierig sein könnte. "Wir abonnieren keine einzelnen Fernsehsendungen oder Musikkünstler." Stattdessen versucht er mit Medium eine Plattform aufzubauen, die besessene und betriebene Websites sowie eine Vielzahl anderer Websites umfasst. Er sagte, dass in Medium jeden Monat Hunderttausende von Menschen schreiben.

Er war überzeugt, dass gebündelte Inhalte erfolgreich sein werden, und sagte, es gebe keine direkten Konkurrenten, obwohl jede Website, die ein Abonnement und so etwas wie Apple News + mit ihrem Magazinbündel hat, mithalten kann.

Williams sagte, dass sich die Richtlinien von Medium im Laufe der Zeit geändert haben und dass die inhaltliche Moderation nun "ziemlich aggressiv" in Bezug auf das ist, was es zu unterbinden bereit ist. Bei Medium sagte er: "Alles, was wir empfehlen, wird zuerst von einem Menschen genehmigt." Er räumte ein, dass die Website niemals so groß wie Social Media sein wird, sagte aber, dass der "Werteaustausch" der Firma, der Ihre Inhalte in einen Kurationspool, aber hinter eine Paywall stellt, skalieren wird.

Obwohl er sich auf Medium konzentrierte, diskutierte Williams über Social Media und Blogging. Er sagte, dass er das Bloggen vermisse, als etwas, das zwischen extrem beiläufigen Gedanken über soziale Medien und langgestreckten Artikeln liegt. Er sagte, dass beim Bloggen Dinge "marinieren" könnten, im Gegensatz zu der "Sucht nach kurzfristigem Feedback, das schädlich für das Denken ist".

Das Problem, sagte er, ist, dass "Sofortiges Feedback wahrscheinlich für gesunde Gespräche verwirrend ist." Er merkte an, dass die Leute von kurzfristigen Rückmeldungen begeistert sind, wie zum Beispiel der öffentlichen Darstellung von Followern oder Likes in einem Beitrag. Er sagte, es sei unmöglich, in dieser Umgebung zu leben und Ihr Verhalten nicht zu ändern. Andere Systeme mit langsamerem Feedback, wie Newsletter oder Podcasts, ermöglichen mehr Kontext und bessere Gespräche, sagte er. "Wenn jede Kommunikation für sich stehen muss, verliert man die Fähigkeit, tief zu gehen", sagte er.

Er sagte, das politische Gespräch sei "lauter als je zuvor" gewesen, und das macht es schwieriger, selbst wenn man viele Perspektiven hören möchte. Aber er sagte, es gibt Lichtblicke.

"Der Grund, warum ich mich in erster Linie für das Web begeisterte, war, dass ich dachte, es würde uns schlauer machen", sagte Williams. Er glaubte, dass die Welt klügere Entscheidungen treffen würde, wenn die Leute Ideen veröffentlichen könnten. Aber er sagte, es sei aufgrund von Feedbacksystemen und Anreizen nicht so gekommen. "Ein Teil davon ist die Grenze der menschlichen Aufmerksamkeitsspanne", sagte er und bemerkte, dass mehr Informationen uns nicht schlauer machen, wenn wir nicht wissen, wie man es verdaut oder wie man es kontextualisiert, insbesondere wenn es Branchen gibt, die dies versuchen zwinge dich Dinge zu kaufen.

Das ist ein Grund, warum er vor 7 Jahren angefangen hat, an Medium zu arbeiten. Er merkte an, dass die Kunden mit einem Abonnement-Service bezahlen. Sie müssen also ein Produkt erstellen, für das jemand Wertvolles genug findet, um zu bezahlen. Er sagte, das sei besser als Werbung, die sich darauf konzentriere, wie billig man jemandes Aufmerksamkeit erregen könne.

Ein Kritiker-Panel

Natürlich hatten auch die großen Plattformen viele Kritiker auf der Messe. Zu einem Gremium gehörte insbesondere Nicole Wong, ehemalige stellvertretende US-Technologiechefin und ehemalige stellvertretende Generalanwältin bei Google; Jessica Powell, ehemalige Vizepräsidentin für Kommunikation bei Google und Autorin von The Big Disruption ; und Antonio García Martínez, ehemals Facebook und Autor von Chaos Monkeys.

"Dies sind keine neuen Probleme, sie waren von Anfang an dabei", sagte Powell und bemerkte, dass sie sich Sorgen über "unbeabsichtigte Konsequenzen" mache und dass die Überwachung von Inhalten schwierig sei. Sie sagte, dass es großartig ist, dass die Plattformen strengere Richtlinien haben, "aber sie hätten schon viel früher dort sein sollen."

Wong bemerkte, dass in der ersten Ära des Internets "wir Technologie aufbauten und dachten, wir würden die Welt für immer verändern". Sie sagte, das ist erstaunlich und existiert immer noch, und die Leute in der Technik sind größtenteils da, um Gutes zu tun. Aber sie sagte, die Leute seien faul darin, nicht zu erkennen, dass Technologie von Natur aus nicht gut ist. Sie sagte, wir wissen jetzt, wie es ist, ein "waffengestütztes Internet" zu sehen, und wir müssen Systeme aufbauen, um das zu erklären. "Niemand schuldet uns ein kostenloses und offenes Internet, das für unser Wohl entwickelt wurde, und das müssen wir aufbauen."

García Martínez sagte, wenn jemand die Sprache auf Facebook regeln will, sollte es die Regierung sein. "Eine Demokratie ist die Struktur, in der man Rechenschaft ablegt, kein Unternehmen", sagte er. Aber er sagte, er dachte, Facebook sollte sowieso aufgelöst werden, mit getrennten Bereichen wie Instagram und What's App. Wenn Sie die Messlatte für die Inhaltsmoderation höher legen, könnten Sie einen Wettbewerbsvorteil erzielen.

Laut Powell gibt es ein glaubwürdiges Argument dafür, dass Sie KI-Modelle besser trainieren können, wenn Sie über mehr Daten verfügen, sodass Sie weniger menschliche Moderation benötigen. Sie schlug jedoch vor, dass die Branche einen Weg finden könnte, um Informationen für alle Akteure zusammenzubringen. Dies sei bereits für die Ausbeutung von Kindern vorgesehen, und wir sollten in der Lage sein, herauszufinden, wie dies gegen Mobbing getan werden kann. Alles in allem müsse jede Regulierung Fragen der Kontrolle und Transparenz aufwerfen. Es sei falsch, dass sich ein Startup heute Sorgen um den Weg machen müsse, der beschritten werden müsse.

García Martínez sagte, es gebe immer einen Kompromiss zwischen Privatsphäre, Bequemlichkeit und Sicherheit, und das sei in Ordnung, wenn man weiß, welche Kompromisse man eingeht. Aber er schlug vor, die Datenaggregatoren von Drittanbietern loszuwerden.

In einer anderen Session hat der Komiker und Kritiker Baratunde Thurston seine eigene Plattform der "neun Möglichkeiten, die Zukunft nicht zu vermasseln" vorangetrieben. Zu diesen Elementen gehören Transparenz- und Vertrauensbewertungen, wodurch die Standardeinstellung für das Schließen von Konversationen geändert wird. und Dateneigentum und Portabilität. Die größte Aufmerksamkeit erregte er jedoch, als er Facebook als "Cloud-basierten Entschuldigungsdienst" beschrieb, der "Apology-as-a-Service" anbot.

Auch der NYU-Stern-Professor Scott Galloway, bekannt für sein Buch The Four: The Hidden DNA von Amazon, Apple, Facebook und Google , machte eine Reihe von Vorhersagen für das kommende Jahr. Darin enthalten sind Vorhersagen, dass ein hochrangiger Facebook-Beamter auf ausländischem Boden festgenommen und inhaftiert wird und dass große Technologieunternehmen stärker reguliert werden. Er sagte, dass er der Meinung sei, dass Big Tech durch Ausgliederungen und Auseinanderbrechen in den nächsten sechs Monaten mehr Wert schaffen werde als die gesamte Kapitalisierung von Boeing und Airbus.

Codekonferenz: YouTube, Facebook, Twitter befasst sich mit der Reduzierung von schlechten Inhalten