OLG -dom: Plattformar måste nu känna igen DeepFake -videor själv!
OLG -dom: Plattformar måste nu känna igen DeepFake -videor själv!
Den högre regionala domstolen (OLG) Frankfurt Am Main fattade ett banbrytande beslut den 4 mars 2025, vilket avser förfarandet för sociala medier mot kränkande innehåll som DeepEpake -videor. Specifikt beslutade domstolen att plattformsoperatörer som META inte bara måste reagera på referenser till kränkande innehåll, utan också måste aktivt söka efter meningsfullt innehåll. Detta påverkar främst innehåll som är identiskt med uttalandet och innehållet trots olika design. Skådespelarna i detta beslut hänvisar till ett fall att Dr. Eckart från Hirschhausen påverkar offret för manipulerade videor, där han felaktigt presenterades som annonsör för en viktminskningsprodukt. OLG fann att det inte räcker för att bara ta bort det rapporterade bidraget; Plattformarna måste också arbeta självständigt för att ta bort liknande men inte direkt registrerat innehåll för att agera mot spridningen av falsk information.
Domstolens rättegång inleddes i juli 2024 när Dr. Von Hirschhausen, med stöd av juridisk hjälp, ansökte om radering av en specifik video. Efter att ha analyserat situationen fann domstolen att Meta borde ha agerat med en annan nästan identisk video som innehöll samma uttalanden. I november 2024 gav Dr. Von Hirschhausen sin ansökan, och den högre regionala domstolen i delar gav honom rätt genom att förbjuda spridningen av den identiska videon. Denna trendinställning av dom gör det tydligt att värdleverantörer är skyldiga att vidta åtgärder för att aktivt bekämpa fördelningen av falsk information och möjliggöra mer skydd av de drabbade.
skyldighet att aktivt söka
De lagliga kraven som OLG formulerade i sitt beslut säger tydligt att plattformsoperatörer måste söka efter meningsfullt innehåll enligt en specifik hänvisning till ett brott mot innehåll. Sådant innehåll kan uppstå från identiska texter eller bilder, men på grund av olika design (till exempel andra upplösningar eller filter). En avgörande punkt i detta sammanhang är att en separat varning inte är nödvändig för alla liknande video om den är nästan identisk. Detta representerar framsteg när det gäller att bekämpa deepfakes, särskilt med tanke på att förfalskningar kan påverka människors tänkande och skådespelare och därmed representera en betydande fara för bildning.
Beslutet har också konsekvenser för plattformens juridiska ansvar. Dessa måste nu se till att de tillhandahåller tekniska medel för att känna igen identiskt eller sensoriskt innehåll. Mot bakgrunden görs dessa rättsliga utvecklingar att användningen av Deepfakes i allt högre grad har fått betydelse inom olika områden, från politiskt inflytande till pornografi. De rättsliga skyddsåtgärderna mot sådant innehåll är emellertid fortfarande otillräckliga, vilket ofta är en utmaning för plattformarna och de drabbade.
Effekter på de drabbade
Konsekvenserna av detta beslut är av stor betydelse: de drabbade kommer inte längre att behöva aktivt söka efter kränkande innehåll i framtiden. Plattformarna har nu en högre ansvarsnivå och kan inte längre bara lita på uttryckliga meddelanden. Juridiskt stöd kan vara avgörande för att verkställa rättigheter effektivt. I det diskuterade fallet av Dr. Von Hirschhausen togs bort med en rapporterad video efter ett meddelande, följde den nästan identiska videon först efter ett andra meddelande. Denna typ av juridisk diskussion visar hur viktigt det är att plattformar kompenseras av sina skyldigheter och reagerar snabbare mot Hinwiese för att eliminera sådan falsk information.
Sammantaget visar bedömningen av OLG Frankfurt AM Main behovet av mer intensiv rättslig förtydligande vid hantering av Deepfakes och andra former av desinformation. Europeiska kommissionen har redan lagt fram ett förslag till reglering för att reglera konstgjord intelligens och djupare, som visar att den rättsliga ramen för denna teknik ännu inte har fastställts fullt ut. Framtiden kommer att visa hur plattformar kan implementera dessa nya krav och skydda rättigheterna för de drabbade.
Details | |
---|---|
Quellen |
Kommentare (0)