Sodba OLG: Platforme morajo zdaj sami prepoznati video posnetke Deepfake!
Sodba OLG: Platforme morajo zdaj sami prepoznati video posnetke Deepfake!
Višje regionalno sodišče (OLG) Frankfurt AM Main je 4. marca 2025 sprejelo pionirsko odločitev, ki zadeva postopek družbenih medijev pred kršitvijo vsebin, kot so videoposnetki DeepEpake. Sodišče je natančneje odločilo, da se morajo upravljavci platforme, kot je Meta, ne smejo odzvati samo na sklicevanje na vsebino kršitve, ampak morajo tudi aktivno iskati smiselno vsebino. To vpliva predvsem na vsebino, ki je kljub različni zasnovi enaka izjavi in vsebini. Akterji te odločitve se nanašajo na primer, da dr. Eckart iz Hirschhausena vpliva na žrtev manipuliranih videoposnetkov, v katerem je bil napačno predstavljen kot oglaševalec za izdelek za hujšanje. OLG je ugotovil, da ni dovolj, da bi samo izbrisal prijavljeni prispevek; Platforme morajo delovati tudi neodvisno, da odstranijo podobno, vendar ne neposredno registrirane vsebine, da bi lahko ukrepali proti širjenju napačnih informacij.
Sodno sojenje se je začelo julija 2024, ko je dr. Von Hirschhausen, podprt s pravno pomočjo, zaprosil za brisanje določenega videoposnetka. Po analizi situacije je sodišče ugotovilo, da bi morala Meta ravnati z drugim skoraj enakim videoposnetkom, ki vsebuje enake izjave. Novembra 2024 mu je dr. Von Hirschhausen in višje regionalno sodišče v delih dalo pravico s prepovedjo širjenja identičnega videoposnetka. Ta presoja, ki določa trend, jasno kaže, da so ponudniki gostiteljev dolžni sprejeti ukrepe za aktivno boj proti porazdelitvi lažnih informacij in omogočanje večje zaščite prizadetih.
obveznost aktivnega iskanja
Pravne zahteve, ki jih je OLG oblikoval v svoji odločitvi, jasno navaja, da morajo upravljavci platforme iskati smiselno vsebino v skladu s posebnim sklicevanjem na kršitev vsebine. Takšna vsebina lahko izhaja iz enakih besedil ali slik, vendar zaradi različnih zasnov (na primer drugih ločljivosti ali filtrov). Ključna točka v tem kontekstu je, da ločeno opozorilo ni potrebno za vsak podoben video, če je skoraj enak. To predstavlja napredek v boju proti Deepfakes, zlasti glede na dejstvo, da lahko ponaredki vplivajo na razmišljanje in delovanje ljudi v javnosti in tako predstavljajo veliko nevarnost za oblikovanje.
Odločitev ima tudi posledice za pravno odgovornost platform. Zdaj morajo zagotoviti tehnična sredstva za prepoznavanje enake ali senzorične vsebine. Glede na to se uveljavlja ta pravna dogajanja, da je uporaba Deepfakes vedno bolj pridobila pomen na različnih področjih, od političnega vpliva do pornografije. Vendar so pravni zaščitni ukrepi proti takšni vsebini še vedno neprimerni, kar je pogosto izziv za platforme in prizadetim.
učinki na prizadetih
Posledice te odločitve so zelo pomembne: prizadetim v prihodnosti ne bo treba več aktivno iskati vsebine, ki kršijo vsebine. Platforme imajo zdaj višjo raven odgovornosti in se ne morejo več zanašati le na izrecna sporočila. Pravna podpora je lahko ključnega pomena za učinkovito uveljavljanje pravic. V obravnavanem primeru je dr. Von Hirschhausen odstranil s prijavljenim videoposnetkom po sporočilu, skoraj identičen video je sledil šele po drugem sporočilu. Ta vrsta pravne razprave kaže, kako pomembno je, da platforme nadomeščajo svoje obveznosti in se hitreje odzivajo na Hinwiese, da odpravijo takšne napačne podatke.
Na splošno sodba glavnega Olg Frankfurt AM kaže na potrebo po intenzivnejšem pravnem razjasnitvi pri ravnanju z globokimi pojavki in drugimi oblikami dezinformacij. Evropska komisija je že predložila osnutek uredbe za urejanje umetne inteligence in globlje, kar kaže, da pravni okvir za to tehnologijo še ni bil v celoti uveljavljen. Prihodnost bo pokazala, kako lahko platforme izvajajo te nove zahteve in zaščitijo pravice prizadetih.
Details | |
---|---|
Quellen |
Kommentare (0)