L’intelligence artificielle (IA) a connu une accélération fulgurante depuis 2023, portée notamment par l’essor de l’IA générative (capable de créer du texte, des images, du code, etc.).
Entre 2024 et 2025, elle s’impose comme une révolution majeure du numérique, envahissant de nombreux secteurs et usages.
Face à cet engouement, il est crucial pour un étudiant en BTS SIO de réaliser une veille technologique à jour, afin de comprendre les avancées techniques, les applications concrètes ainsi que les enjeux éthiques, sociétaux et légaux liés à l’IA.
Ce mini-rapport propose un panorama synthétique et structuré des dernières évolutions de l’IA, reflétant les tendances actuelles, les innovations marquantes, les outils utilisés, les implications professionnelles et les défis à relever.
L’IA est plus que jamais présente dans notre quotidien en 2024. Certains commentateurs parlent d’“IA partout”, tant ses usages se multiplient dans l’industrie technologique (theverge.com).
En particulier, la vague de l’IA générative provoque un bouleversement profond : malgré le scepticisme de quelques-uns qui y voient un effet de mode passager, cette technologie entraîne un changement d’échelle dans presque tous les domaines de l’informatique (theverge.com).
Des millions d’utilisateurs interagissent désormais avec des IA au jour le jour – par exemple via des assistants conversationnels comme ChatGPT d’OpenAI, devenu emblématique du domaine.
Les grandes entreprises mondiales investissent massivement dans l’IA et se livrent une véritable course à l’innovation. OpenAI (soutenue par Microsoft) a ouvert la voie avec ChatGPT, Google a riposté avec Google DeepMind et son modèle Gemini, tandis que Meta mise sur des modèles ouverts (famille LLaMA). Microsoft intègre l’IA à ses produits (Copilot pour Windows/Office), et même Apple travaille à infuser plus “d’intelligence” dans Siri (theverge.com).
En conséquence, plus des trois quarts des grandes organisations dans le monde utilisent désormais au moins une forme d’IA dans leurs activités, et l’usage des modèles génératifs augmente rapidement (mckinsey.com).
Cependant, ce panorama n’est pas idyllique : 2024 a confirmé des progrès impressionnants de l’IA, tout en révélant de nombreux défis persistants. Les questions de régulation, d’adoption réelle par les utilisateurs et d’impact sociétal restent posées (lemagit.fr).
En entreprise, on constate que malgré l’adoption croissante des outils d’IA, le retour sur investissement (ROI) de ces solutions demeure incertain et limité pour le moment (lemagit.fr).
Beaucoup d’expérimentations sont en cours, mais les transformations profondes tant promises peinent encore à se matérialiser totalement dans les processus métiers (lemagit.fr).
En somme, l’IA en 2024–2025 est à un tournant : omniprésente et riche de potentiel, mais en quête de maturité et de confiance.
L’IA générative (GenAI) est sans conteste la tendance phare de ces deux dernières années. Ses usages se multiplient : assistants virtuels capables de tenir une conversation naturelle, outils de rédaction aidant à produire rapports ou contenus marketing, générateurs d’images et de vidéos pour la création multimédia, sans oublier l’aide à la programmation (ex. complétion de code avec GitHub Copilot) ou à la conception (génération de designs, de schémas, etc.).
Par exemple, plus d’un million d’utilisateurs exploitent déjà la fonction d’aide à l’écriture dans Google Workspace (via “Duet AI”) pour rédiger des e-mails ou documents plus efficacement (blog.google).
De son côté, OpenAI a intégré son générateur d’images DALL·E 3 directement dans ChatGPT, permettant à n’importe quel utilisateur de créer en quelques secondes une image à partir d’une simple description textuelle (theverge.com).
Cette intégration simplifie grandement l’expérimentation créative, au point de voir surgir sur le web des illustrations surprenantes et virales, entièrement issues de l’imagination de l’IA.
Malgré leurs atouts, les IA génératives présentent d’importantes limites techniques et pratiques.
D’une part, la fiabilité de leurs réponses n’est pas garantie : ces modèles statistiques peuvent produire des “hallucinations”, c’est-à-dire des informations inexactes ou inventées, avec un ton pourtant convaincant. On a vu des cas de chatbots assurant des contre-vérités, ou inventant des références inexistantes.
D’autre part, ils reflètent les biais des données d’entraînement : des dérives racistes, sexistes ou stéréotypées ont été observées lorsque les garde-fous sont insuffisants. Par exemple, un chatbot non filtré pourrait tenir des propos injurieux s’il a été exposé à ce type de langage en apprentissage.
La compréhension réelle de ces IA reste limitée : ce sont avant tout de puissants imitateurs de langage, dépourvus de conscience ou de véritable raisonnement logique, ce qui les rend parfois déroutants face à des tâches nécessitant du bon sens ou une connaissance du contexte réel.
En outre, l’usage de ces IA soulève des préoccupations de confidentialité et de sécurité des données. En 2024, un sondage auprès d’entreprises a révélé que 27 % d’entre elles avaient même interdit temporairement à leurs employés d’utiliser des outils d’IA générative, par crainte des risques pour les données sensibles (newsroom.cisco.com).
En effet, de nombreux cas ont montré des salariés copiant-collant des informations confidentielles dans ChatGPT ou autres, avec le danger que ces données soient stockées et potentiellement utilisées pour affiner le modèle.
La majorité des organisations ont donc édicté des règles internes limitant quels types de données peuvent être fournis à ces IA (newsroom.cisco.com).
Enfin, des limites structurelles commencent à apparaître à mesure que l’IA générative se popularise. Les chercheurs de l’Inria ont par exemple mis en garde contre le risque d’effondrement de la qualité des modèles si ceux-ci sont entraînés en boucle sur leurs propres productions ou celles d’autres IA (inria.fr).
Ce phénomène de model collapse pourrait conduire à des résultats de plus en plus homogènes, appauvris et erronés à force d’auto-alimentation. En d’autres termes, une IA qui apprend à partir de données déjà générées par IA risque de perdre en diversité et en précision.
Ce constat souligne la nécessité de rester vigilant sur la qualité des données d’entraînement à l’ère où les contenus synthétiques envahissent le web.
Sur le plan technique, la période 2024–2025 a vu l’émergence de modèles d’IA toujours plus performants, ainsi que des avancées en matière d’outils et d’infrastructures.
OpenAI a consolidé son avance avec GPT-4 (lancé en 2023), un modèle multimodal capable de traiter du texte et des images, qui sert désormais de base à de nombreuses applications.
Google a riposté fin 2023 avec le modèle Gemini, issu de la fusion entre Google Brain et DeepMind. Gemini a établi un nouvel état de l’art sur des tâches en texte, image, audio et vidéo, surpassant les performances antérieures sur de nombreux benchmarks (blog.google).
Sa version la plus puissante, Gemini Ultra 1.0, aurait même dépassé des experts humains sur plusieurs évaluations académiques (blog.google).
En février 2024, Google a renommé Bard en “Gemini” et intégré ces modèles dans ses produits (blog.google).
De son côté, Meta a publié LLaMA 2 en open source. Ce modèle a encouragé l’émergence d’autres modèles ouverts comme Mistral 7B, développé par une startup française et salué pour sa transparence (lemagit.fr).
Des plateformes comme HuggingFace, qui hébergent des centaines de modèles open source, ont connu une forte croissance, notamment en Europe où les éditeurs s’appuient de plus en plus sur ces bases ouvertes (lemagit.fr).
Les frameworks dominants restent PyTorch (par Meta) et TensorFlow (par Google). PyTorch est populaire en recherche pour sa flexibilité, tandis que TensorFlow reste répandu en production grâce à son écosystème (TensorFlow Lite, etc.).
De nouvelles bibliothèques comme LangChain facilitent la création d’agents conversationnels orchestrant LLMs, outils et bases de données.
Des outils de LLMOps émergent également pour gérer le déploiement et la supervision de ces modèles.
Les grands clouds (Azure ML, AWS SageMaker, Google Vertex AI) proposent des studios IA pour entraîner, tester et mettre en production des modèles via API.
Parallèlement, des jeux de données synthétiques et spécialisés sont proposés pour l’entraînement dans des secteurs sensibles comme la santé ou la finance.
Les progrès de l’IA restent intimement liés à la puissance de calcul disponible. En 2024, la demande en GPU (processeurs graphiques) spécialisés pour l’IA a explosé. Le NVIDIA H100 – une puce ultra-puissante dédiée à l’entraînement de modèles – est devenu extrêmement convoité par les laboratoires de recherche et les entreprises, au point que les stocks étaient épuisés pour une bonne partie de l’année (tomshardware.com).
NVIDIA a dû tripler sa production pour tenter de suivre la demande colossale en calcul d’IA (tomshardware.com).
Les géants du cloud (Google, Amazon, Microsoft) ont également investi dans leurs propres accélérateurs matériels : les TPU chez Google, et les ASIC nommés Inferentia et Trainium chez Amazon. Ces initiatives visent à réduire leur dépendance aux GPU et optimiser les coûts d’infrastructure.
Parallèlement, certaines technologies alternatives commencent à émerger : puces neuromorphiques et informatique quantique appliquée à l’IA, bien que ces solutions restent expérimentales en 2025.
Conscients des limites physiques et écologiques, les acteurs du domaine cherchent à optimiser les modèles plutôt que d’augmenter indéfiniment leur taille.
Des techniques de compression comme la quantification des poids ou la distillation de modèles permettent d’exécuter des IA lourdes sur des matériels plus modestes, voire sur des appareils mobiles.
Par exemple, Meta a conçu des versions allégées de ses modèles LLaMA, capables de fonctionner sur un simple serveur standard.
La recherche avance aussi sur des architectures multimodales plus efficaces. Si GPT-4 et Gemini sont déjà multimodaux, aucun système pleinement polyvalent (texte-image-son) de niveau professionnel n’existait encore en 2024 selon certains experts (lemagit.fr).
L’année 2025 pourrait voir apparaître des IA plus frugales énergétiquement, plus spécialisées, et mieux intégrées, répondant ainsi aux enjeux croissants de durabilité (lemagit.fr).
L’essor de l’IA transforme progressivement le monde du travail, en particulier dans le secteur IT. Beaucoup redoutaient des suppressions massives d’emplois liées à l’automatisation, y compris dans les métiers créatifs ou intellectuels (rédaction, design, développement logiciel) (lemagit.fr).
La réalité fin 2024 est plus nuancée : l’IA générative a modifié certaines professions, mais sans provoquer de licenciements généralisés (lemagit.fr).
Par exemple, les développeurs utilisent désormais des assistants IA pour générer ou corriger du code, accélérant ainsi le débogage et la production. Ces outils augmentent la productivité plutôt qu’ils ne remplacent les programmeurs (lemagit.fr).
De même, les métiers du contenu (rédaction web, marketing, conception graphique) exploitent l’IA pour les tâches de base (brouillons, variantes de texte, ébauches visuelles), libérant du temps pour la créativité, la stratégie ou la relecture humaine.
Dans des secteurs en tension, l’IA comble le manque de main d’œuvre sur des tâches répétitives ou pénibles : robots dans la logistique, chatbots en support client, génération automatique de contenus en e-commerce.
« Que les IA fassent de plus en plus ce que font les humains est un fait inéluctable. Les personnes qui sauront exploiter l’IA de manière efficace deviendront les plus précieuses pour les employeurs. » — Analyste Gartner (lemagit.fr)
La valeur des professionnels IT se déplace donc vers la collaboration avec l’IA. Les compétences recherchées évoluent : apparition de nouveaux métiers comme prompt engineer, data scientist, ML engineer, ou encore expert en éthique de l’IA.
L’utilisation de ChatGPT, Bard ou des API d’IA devient un atout même pour des postes classiques (développeur, admin systèmes, chef de projet).
L’IA pénètre aussi les fonctions IT internes via les solutions d’AIOps et de cybersécurité. Par exemple, des logiciels de supervision détectent automatiquement des anomalies, et des outils analysent les journaux pour repérer malwares ou intrusions en temps réel.
Ces outils permettent aux équipes de réagir plus vite et d’automatiser les résolutions courantes, bien que la supervision humaine reste essentielle pour les cas complexes.
En résumé, l’impact de l’IA dans l’IT se traduit moins par une destruction d’emplois que par une évolution des compétences et méthodes de travail. Les professionnels constatent souvent des gains de productivité importants (par exemple, un développeur réalisant en heures ce qui prenait plusieurs jours) (lemagit.fr).
L’intégration de l’IA nécessite toutefois de revoir les workflows et de former les équipes pour garder l’humain au cœur des décisions. À terme, savoir collaborer efficacement avec l’IA sera aussi indispensable que savoir utiliser un ordinateur l’a été dans les décennies passées.
Le déploiement de l’IA soulève des questions éthiques majeures. Les systèmes peuvent hériter de biais présents dans les données d’entraînement : reconnaissance faciale moins précise sur certaines populations, IA de recrutement reproduisant des préjugés sexistes, etc.
En 2024, ces problèmes de partialité restent d’actualité. Des démarches émergent comme l’IA explicable, les audits de modèles, ou la création de chartes éthiques d’entreprise. La transparence est un défi majeur, notamment face à des IA « boîtes noires » où la responsabilité est difficile à établir en cas d’erreur.
L’IA générative permet de produire deepfakes et textes trompeurs à grande échelle, alimentant la désinformation. Par exemple, une fausse image virale du pape en doudoune blanche a dupé des internautes en 2023 (bfmtv.com).
En 2024, à l’approche d’élections majeures, les inquiétudes grandissent concernant la manipulation via IA. Des outils de détection et des filigranes numériques (watermarking) sont en développement, mais la course entre créateurs de contenus faux et défenseurs de l'information continue.
Autres usages controversés : phishing automatisé, surveillance par reconnaissance faciale, IA prédictive en justice ou en police. Ces pratiques renforcent les appels à une gouvernance éthique.
En réponse, la France a lancé le Conseil d’éthique de l’IA (via la CNIL) et l’institut InésIA, tandis que l’UNESCO appelle à un développement centré sur l’humain. (lemagit.fr)
Les IA sont souvent entraînées sur des données collectées sans consentement, posant des questions de vie privée et de droits d’auteur. En 2024, plusieurs éditeurs de presse ont retiré leurs contenus des jeux d’entraînement, réduisant de moitié le volume disponible pour certains modèles de Google (theverge.com).
Des plaintes ont été déposées contre OpenAI pour usage abusif de données personnelles, et l’Italie a temporairement bloqué ChatGPT en 2023 (lemonde.fr, lefigaro.fr).
La CNIL a publié en avril 2024 des recommandations sur le respect du RGPD pour les projets IA : finalité claire, minimisation des données, analyse d’impact, privacy by design, etc. (cnil.fr)
En juillet 2024, l’UE a adopté l’IA Act, un règlement imposant des obligations proportionnées au niveau de risque : interdiction d’usages inacceptables (notation sociale, surveillance biométrique), règles strictes pour les systèmes à haut risque (santé, transport…), et transparence pour les grands modèles.
Mise en application : février 2025 pour les interdictions, août 2025 pour les modèles génériques, 2026 pour les systèmes critiques (cnil.fr).
Ce cadre complète le RGPD, avec création d’un Comité européen de l’IA et de superviseurs nationaux.
Hors UE, les approches divergent : décret Biden aux États-Unis (2023) pour un développement “sûr et fiable”, incertitude post-2025 sur sa mise en œuvre (lemonde.fr, acbm-avocats.com).
Le Royaume-Uni privilégie les chartes volontaires, tandis que la Chine impose des lois strictes encadrant les contenus IA.
Un sommet mondial à Londres (2023) et un autre à Paris (février 2025) ont réuni des décideurs pour débattre des enjeux mondiaux : IA militaire, moratoires de recherche, partage des bénéfices, etc. (inria.fr)
L'entraînement de grands modèles consomme énormément d’énergie. GPT-3 aurait généré plus de 500 tonnes de CO2 (carboncredits.com).
L’exécution massive d’IA dans les datacenters pèse dans le bilan carbone des entreprises. ChatGPT, à lui seul, représente des milliers de kWh consommés chaque jour.
Face à cela, les efforts se concentrent sur la sobriété numérique : optimisation logicielle, énergies renouvelables, modèles plus frugaux. L’IA Act pousse aussi dans cette direction (lemagit.fr).
Les géants du cloud investissent dans des infrastructures plus durables : datacenters verts, refroidissement optimisé, neutralité carbone annoncée malgré la croissance de l’IA.
En l’espace de deux ans, l’intelligence artificielle est passée du statut de technologie prometteuse mais lointaine à celui d’outil omniprésent suscitant à la fois espoirs et interrogations.
La période 2024–2025 aura été marquée par l’explosion de l’IA générative, qui a popularisé l’IA auprès du grand public et accéléré son intégration dans les entreprises.
Des progrès techniques majeurs ont été réalisés – nouveaux modèles toujours plus performants, diffusion de l’open source, démocratisation des usages – ouvrant la voie à d’innombrables applications bénéfiques dans presque tous les domaines (santé, éducation, transports, industrie, etc.).
En parallèle, cette expansion rapide met en lumière des enjeux complexes : nécessité de contrôler les biais et les dérives, de protéger les données personnelles, de garantir la transparence et la sécurité, tout en maintenant l’innovation.
Les pouvoirs publics ont commencé à réguler ce nouvel écosystème, avec l’Europe en chef de file via l’IA Act, tandis que les entreprises ajustent leurs pratiques pour intégrer l’IA de façon responsable et efficace.
Pour un étudiant de BTS SIO entrant dans le monde professionnel, comprendre ces tendances de fond est indispensable. L’IA devient une compétence transverse à maîtriser, comme l’ont été Internet ou la programmation pour les générations précédentes.
Savoir utiliser les outils d’IA de façon critique – en connaître les forces, les faiblesses, et les bonnes pratiques – sera un atout majeur sur le marché de l’emploi.
Il faudra continuer à se former, car le domaine évolue sans cesse : de nouvelles versions de modèles (peut-être GPT-5 ou d’autres breakthroughs) verront le jour, les régulations se préciseront, et les usages inattendus de l’IA continueront d’émerger.
En conclusion, l’intelligence artificielle de 2024–2025 apparaît comme un puissant moteur de transformation numérique, à la fois technologique et sociétale.
Les années à venir détermineront si ces technologies transformeront durablement les entreprises et nos modes de vie, ou si l’engouement initial se stabilisera pour laisser place à des évolutions plus maîtrisées, freinées par les considérations éthiques, écologiques et légales (lemagit.fr).
Quoi qu’il en soit, l’IA restera au centre de l’attention pour longtemps, et c’est en développant une approche éclairée, responsable et proactive face à ces outils que les professionnels de demain en tireront le meilleur parti.