Gå til innhold

Lov&Data

Kreativt vern mot kommersiell utnyttelse av AI-genererte stemmeimitasjoner

Av Nicholas Foss Barbantonis, partner i Selmer og leder firmaets IP-gruppe og Eilert Midttun Rostrup, advokatfullmektig ved Selmers avdeling for handel, industri og teknologi. Eilert bistår jevnlig klienter med spørsmål knyttet til immaterielle rettigheter, personvern, og digitalisering.

Innledning

I desember 2025 skapte den amerikanske skuespilleren Matthew McConaughey overskrifter da han fikk registrert sin ikoniske replikk «alright, alright, alright» fra filmen Dazed and Confused (1993) som varemerke i USA.(1)McConaugheys varemerkeregistrering i United States Patent and Trademark Office,16. desember 2025, https://tsdr.uspto.gov/#caseNumber=98325548&caseSearchType=US_APPLICATION&caseType=DEFAULT&searchType=statusSearch; Cobbina, Kerena. «Matthew McConaughey trademarks iconic phrase to stop AI misuse», BBC, 15. januar 2026. https://www.bbc.com/news/articles/cp87z6vexl3o Registreringen omfattet både uttrykket og lyden som gjengir hans karakteristiske uttale og stemme. Bakgrunnen for varemerkeregistreringen var blant annet en bekymring for at hans stemme kunne utnyttes av AI‑teknologi til å produsere fabrikkert innhold, særlig i form av såkalte deepfakes, herunder AI-genererte stemmeimitasjoner. Saken er et av de første kjente eksemplene på at varemerkeretten forsøkes brukt for å beskytte en persons stemme mot uautorisert AI‑generert innhold.

Illustrasjon: Colourbox.com

I norsk sammenheng er spørsmålet om hvordan man skal verne egen stemme mot uautorisert AI-bruk også interessant. Dette skyldes særlig at en persons stemme har et svakere rettslig vern enn andre personlige kjennetegn, som for eksempel eget bilde. I åndsverkloven § 104 er retten til eget bilde gitt et generelt vern mot uautorisert gjengivelse og offentliggjøring. Dette lovfestede vernet gjelder ikke stemmen som sådan. Samtidig er det viktig å presisere at personvernvernet etter Grunnloven § 102 og EMK artikkel 8 i utgangspunktet kan omfatte også stemme som personopplysning og identitetsbærer. Forskjellen ligger primært i at bildevernet er særskilt lovfestet og operasjonalisert gjennom en egen bestemmelse i åndsverkloven. I fravær av et slikt særskilt vern for en persons stemme, må man benytte seg av andre rettslige grunnlag for beskyttelse mot uautorisert bruk, for eksempel varemerkeretten.

Regulatorisk vern

EU har de senere årene vedtatt flere regelsett som kan få betydning for spredning og håndtering av stemmeimitasjoner, men disse regelsettene etablerer kun i begrenset grad en individuell enerett til egen stemme og privatrettslige håndhevingsgrunnlag.

Dette gjelder særlig forordningen om kunstig intelligens (AI Act), forordningen om digitale tjenester (DSA), og personvernforordningen (GDPR). Det hører med til dette at det per i dag kun er GDPR som er gjennomført i norsk rett.

I fravær av et slikt særskilt vern for en persons stemme, må man benytte seg av andre rettslige grunnlag for beskyttelse mot uautorisert bruk, for eksempel varemerkeretten.

AI Act

AI Act oppstiller primært transparensforpliktelser, herunder krav om at deepfakes og annet syntetisk eller manipulert innhold i visse tilfeller skal opplyses om som sådan, jf. artikkel 50. Forordningen etablerer likevel ingen privatrettslig enerett til egen stemme, og gir derfor ikke i seg selv et direkte håndhevingsgrunnlag mot kommersiell AI-generert stemmeimitasjon.

Personvernforordningen (GDPR)

GDPR kan i mange tilfeller være et mer praktisk relevant regelsett. En persons stemme vil normalt være en personopplysning dersom den kan knyttes til en identifiserbar fysisk person, jf. artikkel 4 nr. 1. Innsamling, lagring, bruk og formidling av stemmeopptak eller stemmeimitasjoner vil typisk utgjøre behandling, jf. artikkel 4 nr. 2. Slik behandling krever behandlingsgrunnlag, jf. artikkel 6, typisk samtykke eller berettiget interesse, hvor sistnevnte forutsetter en konkret interesseavveining.

Dersom stemmen behandles ved særskilte tekniske midler med sikte på entydig identifikasjon, kan den falle inn under biometriske personopplysninger, og da kan artikkel 9 komme til anvendelse med et skjerpet vern og et snevrere sett av behandlingsgrunnlag.

Mangler behandlingsgrunnlag, kan den registrerte kreve sletting, jf. artikkel 17, og i relevante tilfeller også retting, jf. artikkel 16. I mange praktiske situasjoner vil også protestretten etter artikkel 21 og retten til begrensning etter artikkel 18 være sentrale. Ved økonomisk tap kan artikkel 82 om erstatning være relevant, forutsatt at vilkårene er oppfylt.

GDPR kan dermed gi grunnlag for å angripe visse former for uautorisert stemmeimitasjon. Samtidig vil håndheving i praksis ofte være krevende, særlig der aktørene er anonyme eller befinner seg utenfor jurisdiksjonen.

Digital Services Act (DSA)

DSA etablerer heller ikke et selvstendig privatrettslig grunnlag for å stanse AI-baserte stemmeimitasjoner. Forordningen regulerer i stedet plattformansvar og prosesser for håndtering av innhold, og oppstiller blant annet risikoreduserende tiltak for svært store nettplattformer og svært store nettbaserte søkemotorer, jf. artikkel 34 og 35. I denne sammenheng nevnes tiltak som kan bidra til å identifisere manipulert lyd, bilde eller video.

Stortingets utredningsseksjon har i 2024 pekt på at DSA artikkel 16 kan gi en prosessuell håndhevingsmulighet, ved at den etablerer en varslings- og handlingsmekanisme for innhold som påberopes å være ulovlig.(2)Stortingets utredningsseksjon, «Lovregulering av deepfakes», 2024, s. 34-35. https://www.stortinget.no/globalassets/pdf/utredningsseksjonen/utredningsnotater/2024/utredningsnotat---lovregulering-av-deepfakes-2024035.pdf Om en stemmeimitasjon er «ulovlig innhold» beror imidlertid på om den krenker et underliggende forbud eller en rettighet, for eksempel varemerkerett, personvernregler, strafferettslige regler eller den ulovfestede læren om personlig særpreg. DSA gir dermed en kanal for håndtering, men ikke i seg selv svaret på hva som er ulovlig. Dette peker mot et behov for å vurdere dels om særskilt regulering bør etableres, dels hvilke privatrettslige verktøy som allerede finnes i norsk rett, herunder varemerkerett og vern av personlig særpreg.

Hva med særskilt regulering?

I Norge foreligger det per i dag ingen særskilt lovregulering som direkte retter seg mot kommersiell utnyttelse av stemmer i en AI-kontekst. Så vidt forfatterne kjenner til foreligger det heller ikke et konkret lovforslag som tar sikte på å etablere et slikt vern. Dette står i kontrast til Danmark, hvor det er tatt initiativ til lovarbeid knyttet til vern mot identitetsmisbruk og syntetisk innhold.(3)Goldschmieding, Regeringen vil fremsætte lovforslag om forbud mod deepfakes, Lov & Data 4/2025

McConaughey-saken aktualiserer et interessant spørsmål om hvilke rettslige verktøy man har i norsk rett til å beskytte egen stemme mot AI.

I denne artikkelen skal vi derfor undersøke i hvilken grad varemerkeretten er egnet som et selvstendig og effektivt verktøy for beskyttelse mot AI-modellers bruk av personstemmer. Videre ser vi også på at andre personvernsrettslige konstruksjoner, mer presist den ulovfestede læren om rettsbeskyttelse av personlig særpreg, kan utgjøre et supplement eller et mer effektivt, selvstendig alternativ.

Beskyttelse av stemmen etter varemerkeretten

Kan egen stemme registreres som varemerke?

Et lydmerke er et varemerke som består av lyd, for eksempel en melodi, uttalelse av et ord eller lignende. Fra 2023 åpnet man i norsk rett for at slike merker kan registreres og gis varemerkebeskyttelse. Endringen ble gjennomført for å harmonisere norsk regelverk med varemerkedirektivet 2015/2436.(4)Prop.43 LS (2019-2020) s. 18 og 35. Som følge av dette fjernet man det tidligere kravet i varemerkeloven § 14 om at et varemerke må kunne gjengis grafisk, og det ble presisert i § 2 at «lyder» kan utgjøre et varemerke.

Varemerkebeskyttelse er likevel ikke helt fritt frem. Vilkårene i § 14 må fortsatt være oppfylt for registreringen, herunder at varemerket må kunne gjengis på en slik måte at myndighetene og allmennheten «klart og tydelig kan avgjøre gjenstanden for den beskyttelse merkehaveren gis», og merket må ha «særpreg».

Som denne artikkelen vil vise, innebærer disse vilkårene betydelige begrensninger for det vernet stemmen gis etter varemerkeretten.

Det første vilkåret om at registreringen klart og tydelig må avgrense varemerkets gjenstand, innebærer at varemerkebeskyttelsen knytter seg til det konkrete lydtegnet slik det er gjengitt og avgrenset i registeret, og ikke til en mer generell enerett til vedkommendes stemme som identitetskjennetegn. Dette skyldes at en varemerkeregistrering er en presis og uttømmende angivelse av hva som er beskyttet.(5)C-273/00 avsnitt 55 og varemerkedirektivet (EU) 2015/2436 fortalepunkt 13.

Det er dermed kun det som uttales i den registrerte lydfilen som er vernet, og ikke hele stemmen i seg selv. For eksempel vil McConaugheys stemme etter norsk varemerkerett kun ha vern for den innspilte lyden «alright, alright, alright», og ikke nødvendigvis mot generelle etterligninger av hans stemme.

Kravet til særpreg begrenser også hvilke personer som kan registrere stemmen sin som varemerke. Dette skyldes at vilkåret kun er oppfylt dersom en gjennomsnittlig forbruker (omsetningskretsen) kan oppfatte lydmerket som et kjennetegn for kommersiell opprinnelse, altså gjenkjenne at det signaliserer en bestemt næringsdrivende.(6)C-329/02 SAT.2 avsnitt 41, T-331/12 Sartorius avsnitt 18, LB-2014-95107. I praksis betyr dette at særpreg ofte vil være vanskelig å dokumentere for privatpersoner uten et etablert kommersielt renommé. For eksempel forklarer EUIPN i sin veileder at der stemmen i et lydmerke er ugjenkjennelig, og vedkommende også uttaler et ord uten særpreg, så vil kravet til særpreg normalt ikke være oppfylt. Dette illustreres ved en lydfil av stemmen til en udefinert mann som uttaler ordene «premium quality».(7)EUIPN European Union Intellectual Property Network, «Common communication. New types of marks: Examination of formal requirements and grounds for refusal», 2021 s. 6. https://euipo.europa.eu/tunnel-web/secure/webdav/guest/document_library/contentPdfs/EUIPN/CP11/common_communication_cp11_en.pdf Derimot vil en kjent person, som nevnt, langt oftere kunne oppfylle kravet, slik USPTO tilsynelatende mener McConaughey gjør ved å uttale det forholdsvis vanlige ordet «alright» tre ganger. For folk flest vil derfor varemerkeretten ikke være et anvendelig rettslig verktøy for å beskytte egen stemme.

Gjennomgangen viser at det er mulig å oppnå varemerkebeskyttelse for egen stemme, men at vernet i praksis vil være begrenset til en kort lydfil av stemmen og hovedsakelig for personer som allerede er kjent i offentligheten. Varemerkeretten fremstår derfor som et mindre egnet verktøy for å beskytte stemmen.

Vil et registrert lydmerke gi tilstrekkelig vern mot AI generert bruk?

Når en lydfil er registrert som lydmerke, har innehaveren enerett til å bruke merket i næringsvirksomhet. Innehaveren kan kreve stans, samt erstatning og eller vederlag, ved bruk av identiske eller forvekselbare tegn, jf. varemerkeloven § 4 jf. §§ 57 og 58.

Spørsmålet er i hvilken grad dette treffer AI genererte stemmeimitasjoner.

Vernet kan i prinsippet også ramme syntetisk tale, siden muntlig bruk av tegnet regnes som bruk, jf. varemerkeloven § 4 fjerde ledd. I praksis vil vurderingen typisk knytte seg til om den AI-genererte stemmen brukes utad i tilknytning til tilbud av varer eller tjenester, eller i reklame, jf. varemerkeloven § 4 tredje ledd bokstav b og d. Tyngdepunktet ligger derfor i resultatet, altså om stemmen brukes i kommersiell kommunikasjon på en måte som fungerer som kjennetegn, eller på annen måte rammer varemerkets funksjoner, særlig opprinnelsesfunksjonen.

Tyngdepunktet er med andre ord output, altså om den AI-genererte stemmen brukes i kommersiell kommunikasjon på en måte som fungerer som kjennetegn, eller på annen måte rammer varemerkets funksjoner, særlig opprinnelsesfunksjonen.

Dette illustreres av Getty Images v Stability AI [2025] EWHC 2863 (Ch), hvor omfattende likhetstrekk i genererte bilder ikke i seg selv var tilstrekkelig til å konstatere varemerkeinngrep.(8)Getty Images v. Stability AI [2025], avsnitt 398. https://www.judiciary.uk/judgments/getty-images-v-stability-ai/ Inngrep ble i realiteten bare konstatert der resultatet faktisk inneholdt Gettys kjennetegn, som vannmerket. Overført til lydmerker tilsier dette at det i praksis ofte må foreligge en svært nær gjengivelse av det registrerte lydtegnet for at det skal være realistisk å konstatere inngrep. Samtidig er analogien ikke fullstendig, fordi sammenligningen av lydmerker naturligvis vil ha et tyngdepunkt i den fonetiske vurderingen, altså hvordan tegnene oppfattes ved lytting, herunder intonasjon og variasjon i tonehøyde.(9) Se eksempelvis EUIPO Trade Mark Guidelines for Examination in the Office, Part C Opposition, v.1.3 på side 1019 flg., https://guidelines.euipo.europa.eu/binary/2302857/2000180000. Dette kan gi et annet bevis- og vurderingsbilde enn ved rent visuelle kjennetegn.

Varemerkeretten kan dermed gi et visst vern mot AI-generert innhold som er identisk med eller forvekselbart med lydmerket. I praksis vil slike inngrep ofte være vanskelige å påvise og håndheve, fordi resultatet varierer mellom genereringer og fordi vurderingen av forvekslingsfare vil avhenge av konkret brukskontekst og dokumentasjon av hvordan lyden faktisk er brukt i markedet.

Konklusjonen er at registrering av egen stemme som lydmerke gir et snevert og situasjonsavhengig vern, og sjelden vil være tilstrekkelig som selvstendig grunnlag mot AI baserte stemmeimitasjoner.

Rettsbeskyttelse av egen stemme gjennom personlig særpreg

Ettersom varemerkeretten gir et snevert vern mot uautorisert AI‑bruk av egen stemme, er det nødvendig å undersøke om andre rettslige verktøy kan gi et bedre vern. I norsk sammenheng vil et naturlig alternativ være den ulovfestede læren om rettsbeskyttelse for personlig særpreg. Læren kan gi et vern mot rettsstridige etterligninger av den enkeltes personlige særpreg, etter en konkret interesseavveining mellom personvern og ytringsfrihet. På den måten kan læren, i alle fall i teorien, gi et bredere vern for stemmeimitasjoner enn det varemerkeretten gir. Likevel er lærens rekkevidde usikker, noe som igjen påvirker i hvilken grad den kan fungere som et egnet verktøy for å beskytte stemmen mot AI.

Den ulovfestede læren knyttes gjerne til RG‑1999‑1009 Bang-Hansen. Saken gjaldt en kjent filmjournalist som fikk stemmen sin etterlignet i en radioreklame for et filmprodukt. Lagmannsretten kom til at det eksisterer et ulovfestet rettsvern for personlig særpreg, som kan gi grunnlag for erstatning når en etterligning, etter en interesseavveining mellom personvernet og ytringsfriheten, anses rettsstridig.

Denne læren har fått støtte i både litteraturen, rettspraksis og forarbeider. Stenvik var tidlig ute med å ta til orde for lærens eksistens, og han mente at de beste grunner talte for at enhver skal kunne råde «over den kommersielle utnyttelsen av sin fremtoning, sine symboler og sine prestasjoner», og at det bør gis vern mot etterligninger som er «egnet til å skape den forestillingen hos betrakterne at det dreier seg om personen selv». Stenvik begrunner læren særlig på analogibetraktninger fra dagjeldende åndsverkloven § 45c (nåværende åndsverkloven § 104) om retten til eget bilde og straffeloven § 390 om vern av privatlivets fred.(10)Stenvik, Are. «Rettsbeskyttelse av personlig særpreg», Universitetetsforlaget, 2003, https://lovdata.no/pro/#document/JUS/stenvik-a-2003-01 s. 624-625 og 644-655. I ettertiden har Stenviks syn fått støtte i bl.a. Rt-2009-1568 avsnitt 40 og 41, TBERG-2011-61287 (anke forkastet i LG-2011-140249 og nektet fremmet i HR-2012-56-U), TOSLO-2012-160134 og TOSL-2022-34583.

Læren om rettsbeskyttelse av personlig særpreg kan i utgangspunktet gi den enkelte et vern mot kommersiell utnyttelse av egen stemme gjennom etterligninger. I så måte fremstår læren som et tilsynelatende mer dekkende vern mot uautorisert AI bruk, ettersom den kan omfatte stemmeimitasjon som sådan, og ikke bare et konkret registrert lydtegn.

Læren har imidlertid en svakhet: Rekkevidden er ikke uttrykkelig avklart i rettskildene, og anvendelsen beror på en konkret interesseavveining. Utfallet kan derfor bli uforutsigbart, noe som gjør læren krevende å anvende og håndheve i praksis. Her skiller læren seg fra varemerkeretten, som bygger på mer standardiserte vilkår for inngrep og reaksjoner. Der varemerkeretten kommer til anvendelse, gir den ofte et klarere vurderingsgrunnlag, mens personlig særpreg kan gi et potensielt bredere, men mer skjønnspreget og mindre forutsigbart vern.

Avsluttende betraktninger

AI og AI‑modeller reiser betydelige utfordringer for vernet av den enkeltes privatliv, identitet og stemme. McConaughey‑saken illustrerer hvordan man forsøker å møte disse utfordringene ved å etablere rettslige begrensninger for hva AI‑modeller lovlig kan gjøre. Gjennomgangen ovenfor viser imidlertid at det langt fra er enkelt å beskytte seg mot at slike modeller genererer etterligninger av ens person eller stemme.

Varemerkebeskyttelse av egen stemme gir kun vern for korte lydsekvenser, og det vil i praksis ofte være krevende å påvise et inngrep. I så måte fremstår den ulovfestede læren om rettsbeskyttelse av personlig særpreg som et bedre egnet verktøy, ettersom den kan ramme stemmeimitasjon bredere enn et registrert lydtegn, uten å være avgrenset til et bestemt registrert merke. Læren har imidlertid en klar svakhet: vurderingen av om det foreligger et inngrep, beror på en konkret interesseavveining og er derfor mindre forutsigbar og kan være vanskelig å håndheve.

Samlet viser gjennomgangen at dagens rettskilder bare delvis gir praktisk og forutsigbart vern mot kommersiell AI-basert stemmeimitasjon. Varemerkeretten kan gi et avgrenset vern for konkrete lydtegn, men vil ofte ikke treffe rene stemmeetterligninger som ikke reproduserer det registrerte tegnet. Den ulovfestede læren om personlig særpreg kan ramme stemmeimitasjon bredere enn et registrert lydmerke, fordi vurderingen ikke er avgrenset til et bestemt registrert tegn. Samtidig er læren skjønnsmessig og dermed mindre egnet som et klart og stabilt håndhevingsgrunnlag i løpende kommersielle konflikter.

Dette tilsier at rettsutviklingen bør følges tett. Det tilsier også at det i Norge bør vurderes om det er behov for særskilt lovregulering av digitale etterligninger av personlige kjennetegn, herunder stemme, i likhet med initiativene i Danmark. En slik regulering bør avklare samtykkekrav, terskler for ansvar, forholdet til ytringsfriheten, og hvilke sanksjoner og håndhevingsmekanismer som gir et effektivt vern uten å gå lengre enn nødvendig.

Noter

  1. McConaugheys varemerkeregistrering i United States Patent and Trademark Office,16. desember 2025, https://tsdr.uspto.gov/#caseNumber=98325548&caseSearchType=US_APPLICATION&caseType=DEFAULT&searchType=statusSearch; Cobbina, Kerena. «Matthew McConaughey trademarks iconic phrase to stop AI misuse», BBC, 15. januar 2026. https://www.bbc.com/news/articles/cp87z6vexl3o
  2. Stortingets utredningsseksjon, «Lovregulering av deepfakes», 2024, s. 34-35. https://www.stortinget.no/globalassets/pdf/utredningsseksjonen/utredningsnotater/2024/utredningsnotat---lovregulering-av-deepfakes-2024035.pdf
  3. Goldschmieding, Regeringen vil fremsætte lovforslag om forbud mod deepfakes, Lov & Data 4/2025
  4. Prop.43 LS (2019-2020) s. 18 og 35.
  5. C-273/00 avsnitt 55 og varemerkedirektivet (EU) 2015/2436 fortalepunkt 13.
  6. C-329/02 SAT.2 avsnitt 41, T-331/12 Sartorius avsnitt 18, LB-2014-95107.
  7. EUIPN European Union Intellectual Property Network, «Common communication. New types of marks: Examination of formal requirements and grounds for refusal», 2021 s. 6. https://euipo.europa.eu/tunnel-web/secure/webdav/guest/document_library/contentPdfs/EUIPN/CP11/common_communication_cp11_en.pdf
  8. Getty Images v. Stability AI [2025], avsnitt 398. https://www.judiciary.uk/judgments/getty-images-v-stability-ai/
  9. Se eksempelvis EUIPO Trade Mark Guidelines for Examination in the Office, Part C Opposition, v.1.3 på side 1019 flg., https://guidelines.euipo.europa.eu/binary/2302857/2000180000.
  10. Stenvik, Are. «Rettsbeskyttelse av personlig særpreg», Universitetetsforlaget, 2003, https://lovdata.no/pro/#document/JUS/stenvik-a-2003-01 s. 624-625 og 644-655.
Nicholas Foss Barbantonis
Eilert Midttun Rostrup