Indholdsmoderasjon

Indholdsmoderasjon er de processer, en platform bruger til at identificere, vurdere og handle på brugergenereret indhold. Under Digital Services Act (DSA) skal platforme sikre gennemsigtige moderationsprocesser, give begrundelser ved fjernelse af indhold og tilbyde klageadgang for brugere.

Tilbage til ordbog

Indholdsfortegnelse

    Hvad er indholdsmoderasjon?

    Indholdsmoderasjon dækker alle de aktiviteter, en platform udfører for at håndtere brugergenereret indhold. Det spænder fra fjernelse af ulovligt indhold til håndhævelse af platformens egne vilkår.

    DSA definerer indholdsmoderasjon bredt. Det omfatter ikke kun fjernelse af indhold, men også begrænsning af synlighed, tilføjelse af advarsler eller labels, suspendering af brugerkonti og blokering af brugere.

    For platforme er moderation en konstant balancegang mellem at beskytte brugere mod skadeligt indhold og at respektere ytringsfriheden.

    DSA-kravene til moderation

    DSA pålægger platforme forpligtelser til at sikre gennemsigtig og retfærdig indholdsmoderation. Det omfatter gennemsigtige vilkår, begrundelsespligt ved fjernelse af indhold, anmeldelses- og handlingsmekanismer og gennemsigtighedsrapporter. Indberetninger fra betroede indberettere skal behandles med forrang.

    Automatiseret moderation og menneskelig kontrol

    Med milliarder af opslag dagligt er automatiserede moderationsværktøjer uundgåelige. DSA kræver oplysning om brug af automatiserede værktøjer, at brugere informeres om automatiserede beslutninger, og at der er menneskeligt tilsyn. DSA forbyder generelle overvågningsforpligtelser. Det knytter sig til algorithmetransparens.

    Klageadgang og tvistløsning

    DSA giver brugere ret til at klage over moderationsbeslutninger. Onlineplatforme skal etablere et internt klagesystem. Brugere kan også klage til koordinatoren for digitale tjenester.

    Ofte stillede spørgsmål om indholdsmoderasjon

    Hvad er indholdsmoderasjon under DSA?

    Indholdsmoderasjon dækker alle de aktiviteter, en platform udfører for at identificere, vurdere og handle på indhold fra brugere. Det inkluderer fjernelse af ulovligt indhold, begrænsning af synlighed, suspendering af konti og håndhævelse af platformens egne vilkår.

    Skal platforme manuelt gennemgå alt indhold?

    Nej. DSA forbyder generelle overvågningsforpligtelser. Platforme kan bruge automatiserede værktøjer, men der skal være menneskeligt tilsyn med automatiserede beslutninger, og brugere skal have adgang til at klage.

    Hvad sker der, hvis en platform fjerner mit indhold?

    Under DSA skal platformen give dig en begrundelse for fjernelsen. Du har ret til at klage via platformens interne klagesystem.

    Kan platforme frit bestemme deres moderationspolitik?

    Platforme har ret til at fastsætte deres egne vilkår, men DSA stiller krav til, at vilkårene er klare, at de håndhæves konsekvent, og at brugere har adgang til klageprocesser.

    Hvad er forskellen på ulovligt indhold og indhold, der strider mod vilkår?

    Ulovligt indhold strider mod EU- eller national lovgivning. Indhold, der strider mod vilkår, er indhold, som platformen har valgt at forbyde, men som ikke nødvendigvis er ulovligt.

    +400 virksomheder bruger .legal
    Region Sjælland
    Aarhus Universitet
    aj_vaccines_logo
    Realdania
    Right People
    IO Gates
    PLO
    Finans Danmark
    geia-food
    Vestforbrænding
    Evida
    Klasselotteriet
    NRGI1
    BLUE WATER SHIPPING
    Karnov
    VP Securities
    AH Industries
    Ingvard Christensen
    Lægeforeningen
    InMobile
    AK Nygart
    DEIF
    DMJX
    KAUFMANN (1)
    qUINT Logo
    Axel logo
    SMILfonden-logo
    skodsborg_logo-1
    nemlig.com
    Molecule Consultancy
    Novicell