Nos publications
Avr 12
Une intelligence artificielle coiffée d'un casque d'écoute

L’éthique doit rapidement s’inviter dans l’audio générative

Une doctorante en technologies et comportements sociaux (Technology and Social Behavior) à la Northwestern University, Julia Barnett s’est penchée sur 884 articles dans une revue systématique concernant l’intelligence artificielle en audio générative (en anglais : generative audio). Conclusions ? Les questions sur l’éthique devront s’inviter plus tôt que tard dans le domaine de l’audio générative.

Un domaine naissant et encore mal balisé

Qu’est-ce que l’audio générative ?

L’audio générative, c’est la création de fichiers audio par une intelligence artificielle (IA). Elle se base sur des données provenant de diverses sources sonores.

Il peut parfois s’agir de simples extraits musicaux, mais aussi, de plus en plus, d’entrevues et de discours entre autres. Car, ne vous y trompez pas ! Tout ce qu’on fournit comme contenu sonore, l’IA s’en servira afin de générer de nouveaux contenus.

On ne parle pas ici d’une banale synthèse de la parole comme celle à laquelle nous ont habitués les assistants virtuels d’Amazon et de Google.

L’IA réplique en tout point (ou presque) ce qu’on lui fournit, s’en inspire et crée ainsi de nouveaux contenus.

Ainsi, comme la désormais célèbre IA d’OpenAI le fait pour des contenus écrits sur la base d’articles et d’informations tirés du web, l’IA va générer de tout nouveaux fichiers sonores.

Certes, il pourra s’agir de banales trames instrumentales, comme Soundraw le propose.

Mais, de façon beaucoup plus préoccupante, il pourra aussi s’agir de contrefaçons sonores (en anglais : audio deepfake) tellement sophistiquées, que même les oreilles les plus aguerries peinent à les distinguer.

En effet, grâce à cette technologie, la voix d’une personne peut être reproduite pour prononcer des phrases qu’elle n’a peut-être jamais dites.

Quoique l’IA générative dans le domaine audio soit encore relativement jeune, certaines questions éthiques commencent (déjà !) à poindre à l’horizon.

Ironiquement, très peu d’entre elles ont toutefois été réellement approfondies, et ce, même si le temps presse. Parce que le domaine évolue rapidement.

Des préoccupations éthiques encore (pratiquement) absentes

C’est un peu la conclusion à laquelle en est arrivée l’auteure au terme de sa revue systématique.

Julia Barnett s’est aperçue en outre que moins de 10 % des travaux de recherche semblent en aborder les aspects négatifs, alors qu’à l’inverse, 65 % d’entre eux considèrent les impacts positifs à grande échelle. Ce qui est préoccupant.

Cela dit, même si le pourcentage de ceux qui soulèvent les aspects négatifs est significativement plus bas que ceux qui en soulignent les aspects positifs, les préoccupations n’en sont pas moins bien réelles.

Qu’on pense notamment aux fraudes potentielles, à la violation du droit d’auteur, ou même, comme on le soulevait un peu plus haut, les fameuses contrefaçons sonores, les ‘deepfakes’ comme on les appelle en anglais.

On l’a déjà vu à de multiples reprises. Les images créées de toutes pièces, ainsi que les fausses séquences vidéo, essaiment les médias sociaux. Celles-ci deviennent pratiquement indiscernables des contenus réels.

Les dangers liés à la désinformation ou même simplement l’information incomplète sont donc bel et bien réels. Ce l’est avec l’image et ce la sera aussi avec l’audio.

Qui sait si les médias eux-mêmes, comme nos radios communautaires, ne tomberont pas un jour ou l’autre dans le panneau. En diffusant par exemple de faux extraits sonores renfermant des informations inexactes ou trompeuses.

Sans compter les préoccupations en matière de propriété intellectuelle et du droit d’auteur, qui viennent assurément avec la création d’œuvres sonores par l’IA, ou encore tous les dangers qui sont associés à la criminalité (les fraudes, arnaques, etc.).

Ces préoccupations, comme on peut le voir, nous font prendre conscience de l’importance de se pencher sur les questions d’éthique. Plus tôt que tard.

Elles amènent surtout à réfléchir à une éventuelle réglementation afin de bien encadrer le développement et l’utilisation de l’audio générative et toutes les technologies apparentées.

Pour l’heure, il semble y avoir un manque flagrant de considération éthique de la part des chercheurs qui travaillent sur le domaine de l’audio générative.

C’est un peu affligeant comme constat. Il est à souhaiter qu’une revue de littérature comme celle-là permettra, au moins, de faire germer quelques réflexions dans la tête des gens.

Espérons qu’elle jettera les bases à de futurs travaux qui traiteront davantage des impacts négatifs potentiels, et non seulement de son côté givré et sucré.

Trouvez tous les détails en consultant cette revue systématique « The Ethical Implications of Generative Audio Models: A Systematic Literature Review » signée par Julia Barnett.
(Source : « The Ethical Implications of Generative Audio Models: A Systematic Literature Review », 7 juillet 2023, Julia Barnett, Northwestern University, Evanston, IL, USA)

À propos de l'auteur

Professionnel du domaine des médias électroniques avec plus de 30 ans d'expérience, Simon Forgues est à l'emploi de l'Alliance des radios communautaires du Canada depuis 2007. Diplômé en animation radio et télévision au Collège Radio Télévision de Québec, il possède aussi une attestation d'études en création de podcast du Collège Bart. Impliqué dans de nombreux projets liés à la radiodiffusion, et ce, de l'idéation de contenu jusqu'à la production, il a œuvré dans différentes radios du Québec et de l'Ontario, où il a cumulé également des tâches liées à la coordination musicale et à la programmation.

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.