OLG DOM: Plattformer må nå gjenkjenne dypfakevideoer selv!

OLG DOM: Plattformer må nå gjenkjenne dypfakevideoer selv!

The Higher Regional Court (OLG) Frankfurt Am Main tok en banebrytende avgjørelse 4. mars 2025, noe som angår prosedyren for sosiale medier mot krenkende innhold som DeepPake -videoene. Spesielt bestemte retten at plattformoperatører som Meta ikke bare trenger å reagere på referanser til krenkende innhold, men også må søke aktivt etter meningsfylt innhold. Dette påvirker først og fremst innhold som er identisk med uttalelsen og innholdet til tross for forskjellig design. Skuespillerne i denne avgjørelsen refererer til en sak om at Dr. Eckart fra Hirschhausen påvirker offeret for manipulerte videoer, der han feil ble presentert som en annonsør for et vekttapsprodukt. OLG fant ut at det ikke er nok å bare slette det rapporterte bidraget; Plattformene må også jobbe uavhengig for å fjerne lignende, men ikke direkte registrert innhold for å handle mot spredning av falsk informasjon.

Rettsaken begynte i juli 2024 da Dr. Von Hirschhausen, støttet av juridisk hjelp, søkte om sletting av en spesifikk video. Etter å ha analysert situasjonen, fant retten at Meta burde ha opptrådt med en annen nesten identisk video som inneholdt de samme uttalelsene. I november 2024 ga Dr. Von Hirschhausen sin søknad, og den høyere regionale domstolen i deler ga ham rett ved å forby spredning av den identiske videoen. Denne trendinnstillingen gjør det klart at vertsleverandører er forpliktet til å iverksette tiltak for å aktivt bekjempe fordelingen av falsk informasjon og muliggjøre mer beskyttelse av de berørte.

forpliktelse til aktivt å søke

De juridiske kravene som OLG formulerte i sin avgjørelse, sier tydelig at plattformoperatører må søke etter meningsfullt innhold i henhold til en spesifikk henvisning til et krenkende innhold. Slikt innhold kan oppstå fra identiske tekster eller bilder, men på grunn av forskjellig design (for eksempel andre oppløsninger eller filtre). Et avgjørende poeng i denne sammenhengen er at en egen advarsel ikke er nødvendig for hver lignende video hvis den er nesten identisk. Dette representerer fremgang med å bekjempe dypfakes, spesielt med tanke på det faktum at forfalskninger kan påvirke tankene og handlingen av folket i offentligheten og dermed representere en betydelig fare for dannelse.

Avgjørelsen har også konsekvenser for plattformens juridiske ansvar. Disse må nå sørge for at de gir tekniske midler til å gjenkjenne identisk eller sensorisk innhold. Mot bakgrunnen gjøres denne juridiske utviklingen at bruken av dypfakes i økende grad har fått betydning på forskjellige områder, fra politisk innflytelse til pornografi. Imidlertid er de juridiske beskyttende tiltakene mot slikt innhold fremdeles utilstrekkelige, noe som ofte er en utfordring for plattformene og de som er berørt.

effekter på de berørte

Konsekvensene av denne avgjørelsen er av stor betydning: de berørte vil ikke lenger måtte søke etter krenkende innhold i fremtiden. Plattformene har nå et høyere ansvarsnivå og kan ikke lenger bare stole på eksplisitte meldinger. Juridisk støtte kan være avgjørende for å håndheve rettigheter effektivt. I det diskuterte saken om Dr. Von Hirschhausen ble fjernet av en rapportert video etter en melding, fulgte den nesten identiske videoen bare etter en annen melding. Denne typen juridiske diskusjoner viser hvor viktig det er at plattformer blir oppveid av sine forpliktelser og reagerer raskere overfor Hinwiese for å eliminere slik falsk informasjon.

Totalt sett viser dommen fra Olg Frankfurt Am Main behovet for mer intensiv juridisk avklaring i håndteringen av dypfakes og andre former for desinformasjon. EU -kommisjonen har allerede levert et utkast til regulering for å regulere kunstig intelligens og dypere, som viser at det juridiske rammeverket for denne teknologien ennå ikke er fullført. Fremtiden vil vise hvordan plattformer kan implementere disse nye kravene og beskytte rettighetene til de berørte.

Details
Quellen

Kommentare (0)