fr:lang="fr-FR"
1
1
https://www.panoramaaudiovisual.com/en/2019/05/20/inteligencia-artificial-puede-llegar-demasiado-lejos-medios-comunicacion/

L’IA a un énorme potentiel pour transformer la manière dont les organisations médiatiques reçoivent, éditent et distribuent le contenu.

IA

À l’ère du numérique, les nouvelles technologies nous offrent la possibilité de faire de ce qui était auparavant considéré comme impossible une réalité. Des assistants virtuels sur nos smartphones aux transactions automatisées dans les services financiers en passant par les applications dans le domaine de la défense, l'intelligence artificielle (IA) joue un rôle essentiel dans la création de flux de travail plus efficients, efficaces et créatifs dans tous les secteurs.

Selon le Forum économique mondial, le secteur de l’IA lui-même connaîtra une croissance de 50 % chaque année jusqu’en 2025, date à laquelle il devrait atteindre une valeur incroyable de 127 milliards de dollars. Cela aura un effet visible sur le secteur des médias et du divertissement. Selon PWC, l’IA apportera environ 150 milliards de dollars par an à ce secteur.

L’IA a un énorme potentiel pour transformer la manière dont les organisations médiatiques reçoivent, éditent et distribuent le contenu. L’IA peut améliorer l’efficacité, la cohérence et ajouter de la valeur là où elle n’est pas présente. En bref, il vous permet de combiner un contenu de qualité et une personnalisation élevée pour créer une expérience d'information plus fluide et plus significative pour les publics du monde entier.

Puisqu’il semble impossible d’imaginer un avenir sans IA, il est crucial de bien l’utiliser, à commencer par la question éthique. La course au développement ou à l’adoption des dernières technologies d’IA s’accélère rapidement sur tous les points de contact, de la création de contenu à la consommation. Cela se traduit par une responsabilité croissante des utilisateurs et des fournisseurs quant à leur impact éthique.

Comment pouvons-nous garantir que l’utilisation de l’IA profite à tous, des créateurs aux consommateurs, tout en respectant les principes et les valeurs journalistiques d’aujourd’hui ?

La lutte contre fausses nouvelles

Selon une étude récente de Reuters, près des trois quarts des médias s'intéressent désormais à la manière dont l'IA peut les aider à créer et à diffuser du contenu plus efficacement grâce à des applications telles que la reconnaissance vocale, la détection faciale ou les corrections d'édition. Les médias comme Bloomberg s’appuient déjà sur l’automatisation pour couvrir les « actualités économiques » (par exemple les rapports sur les marchés financiers) afin de faire gagner du temps aux journalistes. D’ici 2027, on s’attend à ce que 90 % de tous les articles dans le monde soient rédigés par l’IA.

Le potentiel de l’IA pour transformer positivement la production d’informations et de contenu est évident et, dans les années à venir, elle jouera un rôle crucial dans la détermination du contenu que nous regardons et lisons dans notre vie quotidienne. Mais quel niveau de pouvoir et de contrôle devrions-nous donner à l’IA ? Même si la technologie « pensante » gagne rapidement en utilité, elle ne peut pas s’appuyer sur une liberté absolue et doit adhérer à une certaine forme de principes éthiques. Ceci est particulièrement important dans la lutte contre les fausses nouvelles ou fausses nouvelles.

L’apprentissage automatique (ML), défini comme la science qui permet aux ordinateurs d’apprendre à partir de données, d’identifier des modèles et de prendre des décisions avec une intervention humaine minimale, est essentiel pour que l’IA puisse lutter contre les fausses nouvelles. L’idée est que les machines améliorent leurs performances au fil du temps et deviennent progressivement autonomes. Il n’est donc pas surprenant que l’IA soit utilisée pour générer et organiser automatiquement des histoires.

Cependant, avant d’en arriver là, les algorithmes de ML doivent être entraînés et programmés par des humains pour améliorer la précision de l’IA. Ceci est très important, car les machines sans intervention humaine manquent de compétences humaines de base telles que le bon sens, la compréhension et la capacité de contextualisation, ce qui entraîne de nombreuses difficultés pour déterminer correctement si le contenu est véridique ou non. Si un média laisse l’IA suivre son cours sans aucune intervention humaine (comme la contextualisation), il risque de brouiller la frontière entre information et opinion, encourageant potentiellement les fausses nouvelles plutôt que de les combattre.

Héctor Sierra, directeur commercial de Sony Europe, commente que "le potentiel de l'IA dans n'importe quel domaine, y compris celui des médias, est incalculable. Cependant, il faut garder à l'esprit que chaque avancée technologique comporte une série de risques, et il est donc d'une importance cruciale de maintenir un contrôle exhaustif de sa mise en œuvre et de travailler constamment à son bon développement".

Personnalisation sans filtres à bulles

La personnalisation du contenu peut créer des expériences de meilleure qualité pour les consommateurs, comme nous l'avons déjà vu avec des services de streaming comme Netflix, en créant des recommandations basées sur le comportement personnel et l'historique de visionnage. Les médias ne font pas exception et utilisent déjà l’IA pour répondre à la demande de personnalisation.

Par exemple, le service de recommandation James, relativement récent, développé par le Times et le Sunday Times pour News UK, apprendra des préférences individuelles et personnalisera automatiquement chaque édition (par format, heure et fréquence). Essentiellement, ses algorithmes seront programmés par des humains, mais ils s’amélioreront avec le temps grâce à l’ordinateur lui-même recherchant une série de résultats convenus.

Si le filtrage algorithmique (sélection automatique du contenu qui doit ou non être montré aux utilisateurs et de la manière dont il est présenté) répond à la demande de personnalisation des consommateurs, il peut aussi aller trop loin. Et si les consommateurs écoutaient et lisaient uniquement les informations qu’ils souhaitent entendre au lieu de ce qui se passe réellement autour d’eux et dans le monde ?

C'est ce qu'on appelle le problème de la « bulle de filtre » : les algorithmes conçus par les plateformes pour maintenir l'intérêt des utilisateurs peuvent les amener à ne voir que les contenus qui légitiment leurs croyances et opinions. Il est de la responsabilité des médias de trouver un équilibre entre offrir aux consommateurs un contenu adapté à leurs intérêts et besoins personnels et garantir qu'ils continuent d'être exposés aux deux côtés de l'histoire.

L’IA est sans aucun doute une technologie prometteuse, mais elle n’est pas sans lumières et ombres. Nous devons veiller à ce que l’utilisation de l’IA profite à tous, des créateurs de contenu aux consommateurs, mais doit se faire d’une manière éthique conforme aux principes et aux valeurs journalistiques. Pour ce faire, nous avons besoin que les médias prennent en compte et donnent la priorité à l’éthique dans la mise en œuvre de l’IA. Autrement dit, les humains doivent prendre les mesures nécessaires pour garantir que l’IA est utilisée pour les bonnes raisons et que, si elle est utilisée, les contrôles et l’éthique sont respectés, depuis une formation appropriée jusqu’à la collecte transparente de données. Sinon, à long terme, l’utilisation de l’IA peut causer plus de problèmes que d’avantages aux médias.

Stuart AmandeStuart Amande

Service multimédia intelligent

Sony Solutions Europe

Par, 20 mai 2019, rubrique :Tribunes

D'autres articles sur

Avez-vous aimé cet article ?

Abonnez-vous à notre BULLETIN et vous ne manquerez de rien.