New York Times stellt Prototypensystem vor, das Vertrauen in den Fotojournalismus wecken soll

 

Fehlinformationen sind online ein großes Thema, insbesondere angesichts der Geschwindigkeit, mit der falsche Geschichten verbreitet werden. Das F&E-Team der New York Times hat mit der Content Authenticity Initiative (CAI) an einem Prototypensystem gearbeitet, "um Tools zu erforschen, um den Lesern Transparenz über die Quelle und den Wahrheitsgehalt von Nachrichtenvisualisierungen zu geben". Wenn ein Bild mehr sagt als tausend Worte, muss das Bild gegenüber seinen Betrachtern nachweislich wahrheitsgetreu sein.

Wie CAI betont, war es früher selbstverständlich, dass ein Foto niemals lügt. Das stimmt jedoch schon lange nicht mehr. Es ist leicht, ein Bild zu manipulieren und eine Geschichte zu erzählen, die weit von der Wahrheit entfernt ist. Es ist schwer, Fakten von Fiktion zu unterscheiden, und ein gefälschtes oder gefälschtes Bild kann so schnell die Runde machen, dass Sie es viele Male in Ihrem Feed sehen, bevor Sie das Originalbild jemals sehen. Das heißt, wenn Sie jemals das echte Bild sehen. Eine Studie von Adobe ergab, dass es an Vertrauen in Bilder mangelt und dass die Leute besorgt sind, manipulierte Inhalte zu sehen. Die Studie ergab auch, dass Fotografen mit Bilddiebstahl und Plagiaten beschäftigt sind.

 

Für Fotografen geht es nicht nur um die Ehrlichkeit eines Bildes, sondern um Kredit. Jemand kann das Bild eines Fotografen per Screengrab erstellen und im Internet verbreiten, bevor der Fotograf überhaupt die Möglichkeit hat, die ihm zustehende finanzielle Entschädigung zu verlangen. Nachdem das Bild im gesamten Internet zu sehen war, ist der Wert ihrer Arbeit bereits irreparabel geschädigt. Santiago Lyon, Head of Advocacy & Education bei CAI, schreibt: „Unabhängig von der Quelle werden Bilder aus den traditionellen und Social-Media-Streams entnommen, schnell per Bildschirm erfasst, manchmal geändert, gepostet und umfassend online gepostet, in der Regel ohne Zahlung oder Bestätigung und Oftmals fehlen die ursprünglichen Kontextinformationen, die uns helfen könnten, die Quelle zu identifizieren, und rahmen unsere Interpretation ein. und zu unserem Verständnis beitragen.'

Scott Lowenstein von NYT R&D sagt: „Je mehr Menschen in der Lage sind, den wahren Ursprung ihrer Medien zu verstehen, desto weniger Raum gibt es für „Fake News“ und andere betrügerische Informationen. Jedermann zu erlauben, Medienursprünge bereitzustellen und darauf zuzugreifen, schützt vor manipulierten, irreführenden oder kontextunabhängigen Online-Medien.'

Zusammen mit Adobe und Twitter ist The New York Times Co. Gründungsmitglied des CAI. Das CAI und seine Partner „arbeiten an der Entwicklung eines offenen Industriestandards, der mehr Vertrauen in die Authentizität von Fotos (und dann von Videos und anderen Dateitypen) ermöglicht. Wir schaffen eine Vertrauensgemeinschaft, damit die Zuschauer wissen, ob sie glauben können, was sie sehen.' Zu diesem Zweck skizziert der neue Prototyp einen „Secure Sourcing“-Workflow, der Metadaten mit sicheren Signaturen bei jedem Schritt beibehält, während ein Bild erfasst, in Adobe Photoshop bearbeitet und veröffentlicht wird. Wenn ein Bild veröffentlicht wird, werden Links zu einem Originalbild angehängt und von einer Social-Media-Plattform signiert.

 

Lyon schreibt: „Diese wichtige Arbeit zeigt, wie eine angesehene Nachrichtenagentur wie die NYT mit der CAI-Technologie experimentiert, und gibt uns einen Hinweis darauf, was im Maßstab möglich ist. Dies entspricht unserem Ziel, neben Bildern, die in traditionellen oder sozialen Medien veröffentlicht wurden, ein CAI-Logo anzuzeigen, das dem Verbraucher mehr Informationen über die Herkunft der Bilder gibt, z. B. wo und wann sie erstellt wurden und wie sie möglicherweise geändert oder bearbeitet wurden .'

Lyon fährt fort: „Dies wird das Vertrauen in Inhalte sowohl bei Verbrauchern als auch bei Capture-Partnern (wie Qualcomm und Truepic), bei Bearbeitungspartnern (in diesem Fall bei unseren Kollegen bei Adobe Photoshop) und bei Herausgebern wie der New York Times und anderen stärken. '

Schließlich besteht die Hoffnung, dass CAI-Logos neben Bildern auf traditionellen Publishing- und Social-Media-Plattformen platziert werden können, um Vertrauen in die Herkunft von Bildern zu schaffen und zu erklären, wie ein Bild vor der Veröffentlichung bearbeitet wurde. Im Idealfall können die Betrachter auf das CAI-Logo klicken und sich über den Bildersteller informieren und alle vorgenommenen Bearbeitungen sehen.

Damit die Initiative und der F&E-Prototyp von NYT funktionieren, ist eine breite Akzeptanz erforderlich. Das allgemeine Misstrauen gegenüber Nachrichten und Bildern wird erhebliche Anstrengungen erfordern, um es zu verbessern. Zuverlässige, sichere und zugängliche Aufzeichnungen über die Erstellung und Bearbeitung von Bildern tragen wesentlich dazu bei, Vertrauen in Bilder zu schaffen.

LEAVE A REPLY

Please enter your comment!
Please enter your name here