Lors de votre Keynote sur le Luxembourg Sustainable Wealth Forum, vous avez mentionné les impacts positifs et négatifs de l'IA sur la durabilité. Comment l’IA peut être utilisée plus efficacement pour promouvoir la durabilité sans exacerber ses impacts négatifs ?
Les principaux inconvénients de l'IA que j'ai signalés sont soit structurels (sa forte intensité énergétique), soit subalternes (liés à sa mauvaise utilisation par l’être humain).
En ce qui concerne les lacunes structurelles liées à la demande énergétique de l'IA, qui devrait augmenter et même doubler dans les années à venir (les centres de données pourraient dépasser les 1 000 térawattheures d'ici 2026) alors que les centres de données passeront de 2 % en 2022 à 4 % de la consommation totale d'énergie mondiale, c'est franchement alarmant, mais nous devons nous rappeler que le potentiel de l'IA en termes de contribution positive à l'industrie lui permettra de dépasser rapidement ses coûts d'exploitation en termes d'émissions et de consommation d'énergie. La façon dont l'IA pourra soutenir la maintenance prédictive des systèmes énergétiques et leur efficacité permettra une plus grande sécurité énergétique, ce qui, à son tour, signifiera également une réduction considérable des émissions. Dans ce cas, c'est en grande partie une question de temps et d'investissements qui permettra à l'IA de véritablement tenir ses promesses et il n'y a aucune raison de douter que cela fera partie de son évolution normale.
Les insuffisances subalternes liées à sa mauvaise utilisation par l’homme tournent également autour d'une question de temps. Comme pour la plupart des choses dans le domaine de la durabilité, l’être humain doit rester aux commandes et renoncer à la solution "magique", qui peut être représentée par un consultant, des lignes directrices externes ou même les régulateurs. Tous les facteurs susmentionnés peuvent apporter leur contribution et leur soutien, mais il est toujours dangereux de chercher des substituts. Cela va à l'encontre du concept de base de la durabilité - la responsabilité.
Vous avez souligné les coûts énergétiques élevés associés à l'IA. Quelles stratégies pensez-vous que l'industrie de l'IA devrait adopter pour atténuer ce problème tout en continuant à avancer dans ses capacités ?
En apprenant à mieux connaître cette technologie, les utilisateurs pourront bientôt devenir plus efficaces, non seulement dans l'utilisation qu'ils en font, mais aussi dans la manière dont ils l'utilisent. La difficile prévision de l'offre et de la demande est un autre élément crucial de la mise en place de ce nouveau système énergétique hautement efficace et décarbonisé. Il faut espérer que les installations utilisant les combustibles fossiles deviendront bientôt un dernier recours, au lieu d'une solution de facilité, et que l'industrie sera en mesure de s'appuyer durablement sur l'IA, y compris dans la manière dont elle conçoit ses utilisations et ses besoins en énergie. La durabilité et la finance durable sont des investissements à long terme qui requièrent un état d'esprit similaire.
Comment l'IA a-t-elle transformé la collecte et l'analyse des données ESG selon votre expérience ? Pouvez-vous fournir des exemples spécifiques où l'IA a amélioré de manière significative le processus de reporting ESG ?
Idéalement, du moins je l'espère, l'IA contribuera à la collecte des données ESG en la rendant bon marché, c'est-à-dire accessible à tous, facile et donc caractérisée par la transparence de la collecte et la comparabilité de tous les types de données ESG. L'IA sera soutenue par la réglementation qui pousse même les parties prenantes qui ne produisaient pas ce type de rapport auparavant. D'autre part, les pouvoirs de prédiction de l'IA continueront à compléter ce qui n'est pas disponible actuellement et, espérons-le, la combinaison de ces deux éléments fonctionnera bien pour augmenter le pool de données ESG et leur utilisation. Nous voyons aujourd'hui comment certaines entreprises spécialisées dans les données ESG apportent des solutions aux entreprises pour les aider à collecter leurs données ou à les extrapoler, tout en aidant les investisseurs à accéder plus facilement aux données ESG qui peuvent alimenter leurs choix d'investissement. Pendant trop longtemps, les gens se sont concentrés sur la question des données ESG en l'abordant du mauvais côté. Bien qu'il s'agisse aujourd'hui d'une pierre d'achoppement, l'acquisition des données n'est que la première étape. Ce qui compte, c'est ce que vous faites avec les données, comment elles peuvent aider à soutenir vos choix et vos investissements. Aujourd'hui, nous sommes encore trop loin de ces étapes opérationnelles, c'est pourquoi il est urgent d'avancer rapidement.
Vous avez mentionné l'utilisation de la Génération de Langage Naturel (GLN) dans le reporting ESG. Comment voyez-vous cette technologie évoluer, et quelles sont ses limites pour remplacer la supervision humaine dans le reporting ESG ?
Il existe plusieurs "problèmes" que la GLN pourrait aider à résoudre lorsqu'il s'agit de relever précisément les défis liés à l'analyse ESG. L'identification des tendances et des modèles, par exemple, pourrait aider à identifier plus rapidement les modèles qui peuvent être améliorés dans le traitement des données, en signalant également les défis spécifiques à l'industrie qui prendraient plus de temps à repérer et à traiter et, bien sûr, en aidant à décrypter le tabou de la comparaison des pratiques ESG et de la performance financière, en les mettant enfin sur un pied d'égalité, ce qui est encore un autre objectif que nous cherchons à atteindre en fin de compte. Un autre élément auquel la GLN peut contribuer est la sécurisation des questions de réputation avec l'analyse des sentiments et de l'opinion, qui est régulièrement étudiée. Personnellement, je trouve assez révélateur qu'il soit légitime d'utiliser une solution artificielle pour "dire" que l'empereur n'a pas de vêtements. Mais c'est typique de notre société d'aujourd'hui…
L'impact de l'IA sur les droits de l'homme est une question cruciale. Pourriez-vous discuter des mesures que les entreprises devraient mettre en place pour s'assurer que leur utilisation de l'IA soutient plutôt que de compromettre les droits de l'homme ?
La bonne gouvernance reste l'élément principal de toute stratégie ESG. Sans une gouvernance appropriée, il n'y a ni E, ni S. Il s'agit là d'un véritable mantra et d'une base valable pour toute stratégie d'entreprise. Par nature, l'IA est censée soutenir et promouvoir la démocratisation de l'information tout en représentant un saut quantique dans les possibilités de prévision et de prédiction. Nous savons que l'IA peut être extrêmement bénéfique pour l'humanité. Elle pourrait améliorer la prévision stratégique, démocratiser l'accès à la connaissance, accélérer le progrès scientifique et accroître la capacité de traitement de grandes quantités d'informations. La gouvernance de l'IA doit non seulement s'attaquer à ses risques (potentiels ou avérés), mais aussi fournir les garanties adéquates pour un développement durable de cette technologie. Cela signifie que les garanties adéquates doivent être intégrées dans l'ensemble du cycle de vie de l'IA.
Comment les outils d'IA peuvent-ils être mieux intégrés dans les structures de gouvernance pour améliorer la gestion des risques sans compromettre la transparence et la responsabilité ?
Comme nous l'avons mentionné, prendre en compte des considérations liées à l'IA du début à la fin signifie inclure des considérations connexes dans la collecte, la sélection et le stockage des données, ainsi que dans la conception, le développement, le déploiement et l'utilisation des modèles, des outils et des services qui en résultent. Les régulateurs peuvent faciliter le processus en promouvant une approche fondée sur le risque, mais il reste essentiel que les entreprises soient ouvertes aux nouvelles opportunités et aux nouveaux risques et qu'elles les intègrent dans leur modèle d'entreprise. À cet égard, nous pouvons établir un parallèle avec l'ESG, que les entreprises ont mis trop longtemps à "accepter" comme pertinent et ayant un impact sur leurs activités avant de l'inclure dans leur système de gestion des risques d'entreprise. C'est la meilleure façon pour les entreprises de prendre en compte les sujets de manière adéquate tout en leur donnant la reconnaissance nécessaire au sein de l'entreprise. Espérons que le processus sera plus fluide avec l'IA.
Vous avez conclu que la durabilité nécessite un engagement humain et une analyse critique. Comment les organisations peuvent-elles équilibrer l'efficacité de l'IA avec l'élément humain nécessaire dans les processus décisionnels ?
Je pense que l'adoption des capacités de l'IA lui confère automatiquement la reconnaissance et l'attention nécessaires à sa bonne gestion. L’ESG et l'IA ont tous deux la capacité d'"améliorer" notre mode de vie et de travail si nous les acceptons, ainsi que les améliorations qu'elles représentent. Chacun d'eux représente des changements et les gens peuvent adopter une réaction défensive à leur égard. L'éducation joue un rôle important dans ce contexte : lorsqu'une chose n'est pas connue, elle suscite des réactions négatives et, d'une manière générale, un niveau d'acceptation plus faible. Là encore, je peux établir un parallèle avec l’ESG, qui n'est pas toujours bien connu et apprécié à sa juste valeur. La législation va dans le bon sens, mais la réglementation seule ne suffira pas. Pour qu'un changement radical se produise, nous avons besoin de temps et de la volonté de l'industrie de saisir la valeur de ces concepts, non seulement du point de vue de la conformité, mais aussi pour accroître son excellence opérationnelle. Chaque entreprise peut tirer profit de ces considérations, mais le fait de ne pas les intégrer correctement et en temps voulu conduira certainement à l'échec de l'organisation.
Une étude récente de Stanford a souligné des problèmes de fiabilité importants avec l'IA dans la recherche juridique, notant un taux élevé d'"hallucinations" ou de sorties incorrectes. Comment percevez-vous ces découvertes affectant la confiance et la fiabilité de l'IA dans le reporting et la gouvernance ESG, surtout dans les domaines juridiquement sensibles ?
L'article arrive aux mêmes conclusions que celles que nous tirons actuellement. Le potentiel de l'IA, bien qu'incroyable, doit être correctement piloté, ce qui implique que l'homme joue le rôle de guide. Il n'y a rien de surprenant à ce qu'une nouvelle technologie ait besoin de l'élément humain pour se développer et se perfectionner, le contraire serait surprenant et effrayant. Il reste encore beaucoup à faire dans le domaine de l'IA si nous voulons en exploiter tout le potentiel. Les risques sont nombreux, notamment ceux liés aux applications et aux interactions potentielles. L'erreur commise par la plupart est d'assimiler l'IA ou l’ESG à des "solutions prêtes à l'emploi", ce qui n'est tout simplement pas le cas, en tout cas pas aujourd'hui.
Concernant l'agenda à venir de WEALINS sur l'ESG et l'IA, quels sont les principaux sujets que vous anticipez et comment voyez-vous ces sujets influencer la direction future des stratégies ESG ?
WEALINS a exploré les possibilités liées à l'IA il y a déjà un certain temps et nous avons testé plusieurs applications et fournisseurs. Nous restons très motivés par ce qui peut être réalisé et nous avons l'intention de promouvoir et d'améliorer son potentiel de collaboration, en trouvant la meilleure solution pour répondre à nos besoins. Nous souhaitons également jouer notre rôle dans l'écosystème, en utilisant nos capacités d'analyse pour veiller à ce que nos partenaires puissent remplir leurs obligations et satisfaire les besoins de nos clients. Nous voulons nous assurer que nous continuons à innover et à concevoir des solutions qui anticipent les besoins de nos clients et les évolutions du marché même en matière de ESG.