Audiodescriptie en AI?

 

Afgelopen donderdag gaf ik onze workshop Audiodescriptie schrijven voor film en tv in Maastricht. Algauw bleek dat de deelnemers met veel vragen zaten over het gebruik van artificiële intelligentie of AI. Tijd dus om daar wat dieper in te duiken. 👇

Dat die vragen juist nu opdoken, is geen verrassing. De vorige editie van de workshop was in februari en sindsdien heeft AI grote sprongen gemaakt.

Bovendien is AI tegenwoordig vaak in het nieuws. Denk maar aan de items in de Nederlandse en de Belgische pers over vertalers die steeds minder opdrachten krijgen omdat klanten overschakelen op AI. En dan was er heel recent nog een groot ondertitelbureau dat AI gaat inzetten om eerst dialogen te laten uitschrijven en daar dan een automatische vertaaltool op los wil laten. Het resultaat van die twee bewerkingen gaat dan naar de ondertitelaars ‘ter controle’.

Dus was de vraag van de deelnemers: gaat AI binnenkort ook audiodescripties maken en is er dan nog wel werk in te vinden?

Ik weet dat er ook geëxperimenteerd wordt met AI bij AD, maar tot nu toe is dat vooral beperkt tot het gebruik van synthetische stemmen. Zo zijn de collega’s van ScribitPro daar volop mee aan het testen. Onlangs hebben ze een menselijke stem gekloond en ze hebben hun bevindingen over dat experiment ook gepubliceerd.

Wat mij vooral interesseert is onderzoek naar het schrijven van AD door AI. In de tv-reeks ‘Niks te zien’ verbaast presentator Karl Meesters zijn gasten met de prachtige beschrijvingen van landschappen die hij met een druk op de knop tevoorschijn tovert.

Maar stilstaande beelden zijn nog iets anders dan bewegende beelden, en bij film en tv vertellen die beelden ook nog eens een verhaal met verschillende lagen en nuances. Het gaat dus niet zozeer om beschrijven wat je ziet, maar om het interpreteren van beelden in een bepaalde context. Die beelden staan ook niet op zichzelf, maar worden afgewisseld met dialogen die ook een deel van het verhaal vertellen. Volgens mij zal het dus nog wel een tijdje duren voor we werkloos zijn. 😉

Waar ik wel handige toepassingen zie, is bijvoorbeeld bij het audiobeschrijven van webvideo’s en dan in het bijzonder bij teksten in beeld. Op zich scheelt het al als je die niet meer hoeft in te tikken, en als de AI dan meteen kan checken of weblinks bijvoorbeeld wel werken en of de spelling van namen klopt, zou het al wat werk besparen.

 

De volgende editie van de audiodescriptie-workshop plan ik trouwens begin 2025. Tot die tijd heb ik het even te druk met een musical, drie tv-reeksen en nog wat andere audiodescriptie-projecten die eraan komen…

 

gepubliceerd op 30 september 2024


Deel op: