La présence ou la possibilité d’usage de l’IA dans les médias est une réalité.
Il apparait que le débat doive s’orienter vers des mesures à prendre pour une absorption harmonieuse de cela. Par la définition de procédures internes pour les professionnels et par la transparence dans la relation avec les publics, d’une part, par l’établissement à l’international de règles applicables aux médias et aux développeurs des IA, d’autre part.
Si pour le premier aspect, des chartes sont élaborées ici ou là par des médias. Il convient de veiller à les harmoniser et à en faire de bonnes pratiques à retenir par tous.
Pour le deuxième aspect les enjeux portent sur la possibilité d’information et d’identification automatique des productions des IA par ceux qui y accèdent ou qui les reçoivent et la protection de tout ce qui peut ouvrir à des droits moraux ou intellectuels.
En effet, pour les cas d’usage comme un simple outil sur commande sans implication de droits (comme correction grammaticale ou orthographique, édition de statistiques d’audiences, recommandations d’articles ou de liens de vidéos ou d’audios, veille thématique, comptage de données - résultats élections ou autres compétitions, audiences, recommandations …-, analyse et compréhension du comportement des usagers…): il faut imposer la vérification par des professionnels avant de les adresser aux publics.
En cas d’usages avec plus d’autonomie sur des sujets potentiellement a droits (comme traduction ou transcription, génération de version dérivée ou conversion audio, vidéo ou texte de productions de professionnels, éléments factices complétant ou illustrant des créations humaines, assistance pour l’édition d’images, d’audios, de dépêches, de post, de newsletters…) : Il faut non seulement la supervision des résultats par des professionnels, mais avoir en plus l’information des publics sur l’utilisation d’une IA.
Pour l’usage en génération de contenus (comme production entièrement automatisée, résumé de sources fiables, de conversions ou de transcriptions, clonage audio - voix animateurs ou journalistes …- ou vidéo - avatars …-, transcription ou traductions autonomes de contenus , analyse, synthèse ou refonte automatique de contenus – archives y compris-, génération de versions, débats ou échanges multilingues …) : il convient d’imposer, par les organisations ou associations regroupant des médias, le contrôle professionnel ou la réduction au rôle d’IA assistante, un usage limité au strict nécessaire, l’information des publics sur la production par IA mais surtout œuvrer pour la mise en place, internationalement reconnue, de marqueurs embarqués transparents de ce type de produits.
Guila THIAM
Il apparait que le débat doive s’orienter vers des mesures à prendre pour une absorption harmonieuse de cela. Par la définition de procédures internes pour les professionnels et par la transparence dans la relation avec les publics, d’une part, par l’établissement à l’international de règles applicables aux médias et aux développeurs des IA, d’autre part.
Si pour le premier aspect, des chartes sont élaborées ici ou là par des médias. Il convient de veiller à les harmoniser et à en faire de bonnes pratiques à retenir par tous.
Pour le deuxième aspect les enjeux portent sur la possibilité d’information et d’identification automatique des productions des IA par ceux qui y accèdent ou qui les reçoivent et la protection de tout ce qui peut ouvrir à des droits moraux ou intellectuels.
En effet, pour les cas d’usage comme un simple outil sur commande sans implication de droits (comme correction grammaticale ou orthographique, édition de statistiques d’audiences, recommandations d’articles ou de liens de vidéos ou d’audios, veille thématique, comptage de données - résultats élections ou autres compétitions, audiences, recommandations …-, analyse et compréhension du comportement des usagers…): il faut imposer la vérification par des professionnels avant de les adresser aux publics.
En cas d’usages avec plus d’autonomie sur des sujets potentiellement a droits (comme traduction ou transcription, génération de version dérivée ou conversion audio, vidéo ou texte de productions de professionnels, éléments factices complétant ou illustrant des créations humaines, assistance pour l’édition d’images, d’audios, de dépêches, de post, de newsletters…) : Il faut non seulement la supervision des résultats par des professionnels, mais avoir en plus l’information des publics sur l’utilisation d’une IA.
Pour l’usage en génération de contenus (comme production entièrement automatisée, résumé de sources fiables, de conversions ou de transcriptions, clonage audio - voix animateurs ou journalistes …- ou vidéo - avatars …-, transcription ou traductions autonomes de contenus , analyse, synthèse ou refonte automatique de contenus – archives y compris-, génération de versions, débats ou échanges multilingues …) : il convient d’imposer, par les organisations ou associations regroupant des médias, le contrôle professionnel ou la réduction au rôle d’IA assistante, un usage limité au strict nécessaire, l’information des publics sur la production par IA mais surtout œuvrer pour la mise en place, internationalement reconnue, de marqueurs embarqués transparents de ce type de produits.
Guila THIAM
Autres articles
-
Enseignement supérieur : l’État envisage de dégager 3,8 milliards FCFA pour régler les bourses impayées
-
Sénégal : « Les Témoins », un nouveau think tank porté par les jeunes pour “penser et agir” autrement
-
Le fils de Madiambal Diagne brise le silence après sa libération : « Ma détention n’est qu’un rebondissement du destin »
-
Crise universitaire : Omar Pène en médiation avec les représentants de l’UCAD
-
Journée des Martyrs : les Sénégalais réagissent à l’éligibilité de Sonko et à l’indemnisation des victimes




Enseignement supérieur : l’État envisage de dégager 3,8 milliards FCFA pour régler les bourses impayées


