·
30 mai 2024

IA : entre opportunités et dangers, comment concilier technologie et sobriété ?

IA : entre opportunités et dangers, comment concilier technologie et sobriété ?
Partager

L'intelligence artificielle (IA) est devenue omniprésente dans notre quotidien et un moteur essentiel d'innovation pour les entreprises. Si elle apporte des solutions pragmatiques et prometteuses à des enjeux cruciaux comme la santé, la sécurité et la transition écologique qui nous poussent à explorer toujours davantage ses applications, il est impératif de prendre garde aux risques et au danger d’effet rebond inhérent à son utilisation intensive !

Attention danger !


Philippe Escande, éditorialiste économique au Monde, met en lumière dans son article « Intelligence Artificielle : Le piège de l’effet rebond », les difficultés de concilier technologie et sobriété : "Les investissements massifs, comme ceux de Microsoft, ont conduit à une augmentation significative des émissions de CO2. Entre 2023 et 2024, l’entreprise a investi 50 milliards de dollars pour de nouveaux centres de données, entraînant une hausse de 30 % de ses émissions de gaz carbonique par rapport à 2020."

Entre autres : la phase d'entraînement de Chat GPT 3 aurait utilisé environ 700 000 litres d’eaux et 150 Tonnes de CO2 soit l’équivalent de 150 à 200 Allers-retours Paris-New York !
Ces chiffres compromettent les objectifs climatiques globaux, comme ceux de l'Accord de Paris.  

Cet effet rebond, déjà anticipé par l'économiste britannique Stanley Jevons dans les années 80, confirme sa théorie que plus une technologie permet d'économiser de l'énergie, plus la consommation totale augmente en raison de l'augmentation des usages et des marchés. 

Dans le contexte de l'IA, bien que les gains d'efficacité soient prometteurs, le développement de cette technologie élargit la demande, entraînant des risques et une pollution supplémentaire.

Les questions de sécurité et d'éthique sont également cruciales. L'utilisation de données sensibles peut entraîner des problèmes de confidentialité, de transparence et de sécurité, nécessitant des mesures robustes pour éviter les fuites d'informations et les biais dans les décisions prises par l'IA.

Des opportunités à ne pas négliger

Malgré tout, l'IA permet de réaliser des gains de temps considérables en automatisant des tâches répétitives, ce qui libère des ressources humaines pour des tâches plus stratégiques. Elle améliore aussi la précision et la fiabilité des analyses, comme celles des données ESG (environnementales, sociales et de gouvernance) qui permettent de prendre des décisions plus éclairées. Enfin, en optimisant les processus et les décisions, l'IA contribue à une meilleure efficacité énergétique.
Par exemple, elle peut optimiser la gestion des réseaux électriques et prédire les risques physiques et de transition liés au changement climatique, permettre la détection d'espèces végétales envahissantes …

Chez Axionable, nous avons justement choisi de nous concentrer sur cette dernière thématique, en utilisant l'IA pour aider nos clients à accélérer leur transition durable, pour mesurer et réduire leur empreinte carbone, prédire les risques physiques ou encore optimiser les réponses aux problématiques liées à la biodiversité.


Alors, comment pallier au paradoxe de l’IA et l’utiliser de façon efficace et responsable ?

Face à ces risques, une réglementation et des mesures incitatives sont un premier grand pas : depuis 2021, l’AI Act propose une échelle graduée de risques pour encadrer l’utilisation de l’IA. 

En complément, des certifications émergentes, comme celle créée par le LNE (Laboratoire National de Métrologie et d’Essais) ou encore Labelia Labs, garantissent les performances, la sécurité et l’éthique des systèmes d’IA audités.

Quant aux émissions générées, un certain nombre d’innovations émergentes pourraient permettre de réduire cette pollution, mais à quel prix ? Le risque demeure que ces améliorations à venir ne fassent finalement qu'atténuer les impacts négatifs sans les éliminer.

Sortir de ce paradoxe en matière climatique est un défi considérable pour nos sociétés modernes, nécessitant une conciliation entre technologie et sobriété.


Concevoir et utiliser des solutions d’IA implique une responsabilité

Chez Axionable, en tant qu'acteurs de l’IA, se rappeler que nous avons la responsabilité collective d’imposer une gestion rigoureuse, de promouvoir une utilisation réfléchie et éthique de cette technologie est incontournable pour assurer un avenir durable.
Cela inclut la vulgarisation et la compréhension de ses impacts, la promotion de la sobriété des usages et le développement de technologies low-tech plus durables et résilientes.
En adoptant des pratiques durables et en instaurant des garde-fous efficaces, nous pouvons atténuer les impacts négatifs de l’IA et maximiser ses bénéfices pour le bien commun.

Dans un premier temps, il nous semble incontournable qu’une solution d’IA ne soit mise en œuvre que si et seulement si elle répond positivement aux deux problématiques suivantes :
• Cibler des cas d’usages d'utilisation à finalité durable
• Répond aux grands principes d’IA responsable/de confiance

Qu'attendons-nous pour adopter des usages conscients et responsables afin d’optimiser pleinement les avantages que ces technologies peuvent nous offrir pour le bien commun ?

À lire ensuite

Recevez notre newsletter

Merci, et à bientôt dans votre boîte mail !
Oops! Quelque chose n'a pas fonctionné comme prévu...

En soumettant ce formulaire, vous acceptez de recevoir occasionnellement nos courriels. Pas de spam, juste nos actualités et des invitations à nos événements. Vous pouvez vous désinscrire à tout moment.