AI-revolutie In Boekenpublicatie: Juridische Overwegingen

door

in

AI-oplossingen bieden allerlei kansen voor het uitgeverijbedrijf.

Eenpitters kunnen veel taken automatiseren, sneller schakelen en hun productieproces sterk stroomlijnen. Grotere uitgevers kunnen de verschillende rollen binnen de organisatie zo inrichten dat er stevige productiviteitswinsten worden behaald, de slagkracht wordt vergroot en de concurrentiepositie wordt verbeterd.

Maar er is altijd een maar. Zeker wanneer er nieuwe wetgeving vanuit Europa komt. In dit artikel maken we een rondje om de velden en stippen we wat puntjes aan die belangrijk zijn voor de Nederlandse boekenuitgeverij.

De juridische implicaties van de EU AI Act voor de Nederlandse boekenuitgeverij

In mei 2024 werd in EU-verband de AI Act aangenomen. Het woord “Act” doet denken aan het Amerikaanse woord voor “Wet”, maar het betreft een traditionele verordening in EU-verband. Daarmee heeft de AI Act in wezen dezelfde juridische status als de GDPR verordening die ziet op de privacy- en gegevensbescherming binnen de EU.

Delen van deze “wet” zijn al in werking getreden. De meeste handhavingsparagrafen treden in 2026 in werking.

Vanaf februari 2025 bestaat de kennisplicht: organisaties die AI inzetten moeten dan op medewerkerniveau voldoende kennis in huis hebben om de risico’s en beperkingen van hun AI inzet te begrijpen.

Hier is AI zooo onacceptabel…

De AI Act omvat een risicoverdeling in vier niveaus. Over het meest stringente niveau hoeven we in dit verband niet te praten, dat gaat namelijk over AI-toepassingen met een onaanvaardbaar risico. Het gaat dan om het gebruik van AI voor massa-surveillance, het schenden van fundamentele mensenrechten, gedragsbeïnvloeding en het benadelen van kwetsbare groepen. Deze toepassingen worden verboden, behalve als ze een militair karakter kunnen aantonen, of als ze onontbeerlijk zijn bij het oplossen van ernstige misdaden.

Maar zoals gezegd is dit voor de gemiddelde boekenuitgeverij een ver-van-mijn-bed-show.

AI risico van de bovenste plank!

Ook het tweede risiconiveau — “hoog” — is relatief zeldzaam in de gemiddelde boekenuitgeverij. Het hoge risiconiveau ziet erop toe dat de producent van AI systemen, en in mindere mate wellicht ook de gebruiker ervan, moet oppassen met de toepassing ervan op de fundamentele rechten en veiligheid van mensen. Specifiek genoemde aandachtsgebieden omvatten energievoorziening, zorg, onderwijs, rechtstoegang en -handhaving, arbeidsgerelateerde situaties en migratie.

Deze lijst is niet uitputtend. De AI Act wordt gezien als een levend stuk wetgeving dat zich ontwikkelt en meegroeit met de behoeften van de tijd. Een mooi sentiment uiteraard, maar het introduceert ook een stuk rechtsonzekerheid waarmee de brave burger zal moeten zien in het reine te komen.

AI-applicaties met toepasselijkheid in het hoog-risico-domein moeten zich registreren in een EU database en moeten regelmatige assessments ondergaan. Ze moeten een adequaat kwaliteitsmanagementsysteem ontwikkelen en zich ontfermen over hoe de data die het systeem informeert en genereert wordt beschermd. Tenslotte zijn er bepalingen over het accuraat bijhouden van bestanden en zijn er transparantieverplichtingen jegens de eindgebruiker, over de inzet van generatieve en/of biometrische AI toepassingen.

Het lijkt me duidelijk dat de huidige formulering van deze categorie maakt dat ze niet erg relevant is voor het gros van de Nederlandse boekenuitgevers, uitzonderingen daargelaten. In het bijzonder medische, juridische, financiële en educatieve uitgeverijen hebben hier wél een extra aandachtspunt. Daarop zal ik in een reeks afzonderlijke artikelen ingaan.

Wellicht geldt een vergelijkbare waarschuwing in de toekomst ook de uitgevers van overige professionele literatuur, specifiek waar deze tracht een direct toegankelijke, sturende vraagbaak te zijn voor de professional in de uitvoering van diens praktijk.

En dat is inderdaad het belangrijkste punt om te onthouden over de “hoog-risico” categorie van de AI Act: het moet gaan om een AI applicatie die de gebruiker/lezer actief bijstaat in zijn of haar (professionele) leven.

De meeste uitgevers die zich bezighouden met AI zullen dat op een voor de lezer passieve manier doen: brainstormen over boekstructuren, automatiseren van communicatie, snel classificeren van inkomende manuscripten. Ook hieraan stelt de AI Act regels, maar die zijn lang zo stringent niet als die onder het “hoog risico” regime.

De transparantieverplichting bij het gebruik van AI tijdens het publiceren van boeken

Resten ons nog twee risicocategorieën onder de AI Act: beperkt risico en minimaal risico. Het gaat bij beperkt risico over de systemen waar gebruikers willens en wetens mee interacteren, zoals chatbots en biometrische identificatiesystemen, maar ook over deepfakes en de retailsystemen die inschatten welke producten je ook nog zou moeten aanschaffen. “Minimaal risico” is de restcategorie. Algoritmes die je mailbox op orde houden en de systemen die advertenties blokkeren.

De enige verplichting bij het beperkte risico regime is transparantie: je moet aangeven dat het boek dat je publiceert is geschreven door of bewerkt met een AI. Waar ligt hierbij de grens? Wie het weet mag het zeggen. Als een boek met AI geschreven is en de enige menselijke interventie is het verplaatsen van een komma, lijkt het me een duidelijk geval. Maar als de enige input van een AI systeem is het veranderen van de interpunctie in alinea 27 van een boek met vierendertig hoofdstukken, bestaat er dan nog een transparantieverplichting?

Dit soort haarkloverijen zullen zich mettertijd wel uitwerken. In de tussentijd is het nog wel zinvol om enkele randvoorwaarden van de nieuwe EU wetgeving en overige overwegingen te belichten.

Randvoorwaarden van de EU AI Act

Weten waar je aan toe bent met de nieuwe Europese wetgeving rondom AI houdt ook in dat je begrip hebt voor de randvoorwaarden die daarbij gelden.

Ten eerste moet natuurlijk gezegd worden dat Europese regelgeving door de lidstaten zelf moet worden geïmplementeerd binnen de eigen nationale rechtsorde. Nederland heeft hierbij een “voordeel”, aangezien Europese wetgeving volgens de Grondwet niet alleen een hogere plek inneemt dan onze nationale wetgeving, maar ook omdat deze direct doorwerkt in de nationale rechtsorde. De Nederlandse overheid hoeft dus niets te doen om de AI Act geldig te maken binnen onze grenzen. Deze geldt vanaf de inwerkingtreding onverkort binnen de Nederlandse grenzen.

Extraterritoriale werking

Daarnaast is de AI Act specifiek ontworpen om te gelden voor alle bedrijven of organisaties die zich op de Europese gemeenschappelijke markt begeven. Dezelfde wetgeving geldt dus voor uitgevers uit Groot-Britannië en de Verenigde Staten die zich op de Nederlandse markt begeven. Het is dus zeker niet zo dat Nederlandse uitgevers een nadeel oplopen door deze Europese wetgeving, althans niet binnen de de Europese gemeenschappelijke markt.

Dit verandert als uw uitgeverij zich (ook) op de internationale markt richt en aldaar concurreert met marktpartijen. Daar geldt de Europese AI Act immers niet, en dus moet uw uitgeverij zich wellicht aanpassen aan het speelveld dat zich daar gevormd heeft. Wellicht zult u in zulke gevallen vertrouwd moeten raken met twee of meer regimes van regelgeving.

Maar binnen de Europese gemeenschappelijke markt dienen alle marktpartijen zich te houden aan de bepalingen van de Europese Unie, waaronder dus de AI Act.

Geen horizontale werking

De AI Act geldt niet tussen burgers of bedrijven onderling. De bepalingen en risicocategorieën gelden alleen in de verhouding tussen de EU (en haar lidstaten) en de aanbieder of professionele gebruiker van AI producten. Wel hebben private partijen — burgers, bedrijven en organisaties — een klachtrecht, op basis waarvan een lidstaat of een Europese overheid actie kan ondernemen.

Maar u hoeft zich geen zorgen te maken over concurrenten, watchdog-groepen of burgers die juridische procedures tegen u aanhangig gaan maken in het kader van deze nieuwe wetgeving.

Toezicht

Het toezicht, vooral in het kader van twee hoogste risicocategorieën, ligt in eerste instantie bij de Europese Commissie, die in het kader van deze verantwoordelijkheid de EU AI Office heeft opgericht. Het is de bedoeling dat alle afzonderlijke lidstaten uiterlijk in 2025 ook minstens één eigen autoriteit met gelijkaardige verantwoordelijkheden hebben omkleed. In Nederland zou dit de Autoriteit Persoonsgegevens kunnen zijn, of een nieuw op te richten bestuursorgaan.

Overige overwegingen omtrent het gebruik van AI binnen de Nederlandse boekenuitgeverij

Het gebruik van AI oplossingen binnen de uitgeverij kan stuiten op andere problemen dan die voortvloeien uit de AI Act.

Niet de enige relevante wetgeving

De AI Act komt bovenop de al bestaande wetgeving die relevant is voor het uitgeverijbedrijf. We hebben het daarbij natuurlijk expliciet over het auteursrecht. Als AI een boek schrijft, bijvoorbeeld, wie bezit dan het copyright op dat werk? En als een AI wordt getraind op materiaal waarop auteursrecht rust, en vervolgens content produceert — waar ligt dan het copyright? Dit zijn stekelige vragen die in de toekomst wellicht steeds relevanter worden, naarmate het creatieve potentieel van AI toeneemt.

Naast overwegingen omtrent copyright bestaan ook de privacy- en gegevensbescherming uit hoofde van de GDPR onverkort. Ook met deze wet zult u rekening moeten houden als u gebruik maakt van AI bij het uitgeven van boeken.

Op arbeidsrechtelijk vlak kunt u op problemen stuiten wanneer uw uitgeverij zonder overleg functieomschrijvingen gaat aanpassen en daarmee de aard of werkdruk van de werkzaamheden van uw medewerkers noemenswaardig verandert.

Aansprakelijkheid. Dat is het juridische terrein waar u mee te maken kunt krijgen als iemand zich door het gebruik van AI in uw uitgeverij in zijn of haar rechten geschaad acht. Als u een AI opdracht geeft een boekomslag te ontwerpen dat sterk lijkt op het omslag van het succesvolle boek van een concurrent, zal deze zich hierdoor in de wiek geschoten voelen. Wellicht voldoende om juridische stappen te overwegen.

Het moge duidelijk zijn: deze paragraaf staat er voor de volledigheid. Wij weten allebei dat niemand u hoeft te vertellen dat de beschikbaarheid van AI u niet ontslaat van het zijn van een ethisch en rechtschapen ondernemer. Hoe u deze verplichting invult blijft natuurlijk aan u.

Juridisch toelaatbaar is niet per se ethisch verantwoord

Ethisch gedrag is iets anders dan simpelweg “doen wat is toegestaan”. Dit moet iedereen uiteraard voor zichzelf besluiten en hier zijn moeilijk harde regels voor te geven.

Voorbeeld. Het kan zijn dat freelancers of werknemers minder werk toegeschoven krijgen als u meer gaat overlaten aan AI. U kunt hier een ethisch dilemma ervaren.

Maar aan de andere kant kan het zijn dat het voortbestaan van uw uitgeverij wordt bedreigd door het feit dat uw concurrenten zich slim gaan bezighouden met AI-oplossingen. Als u achterblijft heeft u straks helemaal geen opdrachten meer uit te besteden, en dreigt wellicht een inkrimping of faillissement. Ook dit kunt u (terecht) als ethisch dilemma ervaren.

Dit is niet bedoeld om u zover te krijgen dat u AI oplossingen adopteert. Meer als illustratie van de verschillende lagen die meespelen bij een ethische beslissing.

Bij een juridische kwestie is het doorgaans eenvoudig en zwart-wit: goed of fout. Bij ethische vragen gaat het echter vrijwel altijd om grijstinten. En in die besluitvorming zult u zich waarschijnlijk een stuk bevoegder voelen dan wie dan ook.

Conclusie: transparantie, auteursrechten en lichte onzekerheid

U hoeft zich niet heel druk te maken over de juridische kwetsbaarheid van het passieve gebruik van AI oplossingen binnen de boekenuitgeverij. Als u in het colofon aangeeft dat er gebruik is gemaakt van AI oplossingen in het uitgeefproces zit u qua de AI Act al gauw goed.

Het kan zijn dat de AI Act en haar bepalingen in de toekomst zullen evolueren, en dat is een dynamiek die we in de uitgeefbranche in de gaten zullen moeten houden. Voor nu lijkt de toepasselijkheid van de nieuwe regelgeving voor de boekenuitgeverij echter redelijk beperkt, behoudens enkele uitzonderingen die we in een reeks afzonderlijke artikelen zullen behandelen.


Reacties

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.