L’ère du Human Tech : remettre l’humain au cœur de la donnée

On parle beaucoup d’intelligence artificielle, de data, de deep learning. Ces termes ont envahi les conversations, les conférences, les stratégies d’entreprise. Ils traduisent un monde qui cherche à comprendre, anticiper, optimiser. Pourtant, derrière ces mots techniques, il y a autre chose : l’humain.

La technologie n’est pas neutre. Elle est le reflet de ceux qui la conçoivent, de leurs valeurs, de leurs priorités, de leurs angles morts. Chaque modèle, chaque algorithme, chaque base de données est traversé par des choix humains, parfois assumés, souvent implicites. Une IA qui trie des candidatures ou analyse des comportements ne fait que reproduire des logiques existantes, parfois biaisées, parfois discriminantes.

L’enjeu n’est donc plus seulement de développer des systèmes performants, mais de leur redonner du sens. Nous avons cherché à tout mesurer, à tout prédire, à tout automatiser. Et dans cette quête d’efficacité, nous avons parfois perdu de vue l’essentiel : la finalité humaine de la technologie.

Remettre l’humain au centre, ce n’est pas un slogan, c’est une nécessité stratégique et éthique. C’est reconnaître que la donnée n’a de valeur que si elle sert la compréhension, la décision, la relation. C’est accepter que la technologie ne soit pas une fin en soi, mais un levier au service de la société, des individus, des écosystèmes.

L’ère du “Human Tech” commence là : non pas dans le rejet de la machine, mais dans la recherche d’un nouvel équilibre. Une technologie qui n’imite pas l’humain, mais qui l’augmente. Qui ne cherche pas à nous remplacer, mais à nous renforcer. Une technologie consciente de ses impacts, de ses limites, et de sa responsabilité.

Sobriété numérique : ralentir pour mieux voir

La sobriété numérique n’est pas un frein à l’innovation ; c’est une forme de lucidité. Elle invite à questionner la démesure de nos usages technologiques et à replacer la valeur d’usage avant la fascination pour la puissance.

Chaque clic, chaque requête, chaque serveur sollicité a un coût  énergétique, environnemental, humain. Le secteur numérique représenterait aujourd’hui environ 3 à 4 % des émissions mondiales de gaz à effet de serre (GES). En France, selon une étude conjointe de ADEME et ARCEP, le numérique représentait 4,4 % de l’empreinte carbone nationale en 2022 (soit 29,5 MtCO₂e) La perspective d’une hausse est bien réelle : sans actions fortes, cette part pourrait tripler d’ici 2050.

Ce constat ne réduit pas la sobriété numérique à une simple question environnementale ; elle est aussi une exigence intellectuelle et culturelle. Elle nous pousse à concevoir des systèmes utiles, inclusifs, proportionnés. À faire « moins », mais mieux.

Ce n’est pas la quantité de données ou le nombre d’usages qui rend une technologie pertinente ; c’est la qualité de la réflexion qu’elle sert. Quand on réfléchit à l’usage réel d’un service numérique, à la friction qu’il enlève, à l’empreinte qu’il laisse, on se donne la chance de créer une technologie qui enrichit l’humain plutôt que de l’hypnotiser.

Les biais : miroirs de nos sociétés

Les biais algorithmiques ne sont pas des erreurs isolées ou des “bugs” mineurs. Ils révèlent nos propres déséquilibres, nos angles morts et les rapports de pouvoir que nos systèmes technologiques reproduisent. Lorsqu’un algorithme renforce des stéréotypes de genre, d’origine ou de classe sociale, ce n’est pas la machine qui est raciste ou sexiste, c’est le contexte de données, le cadre de formation et les décisions humaines qui l’ont façonné.

L’un des cas les plus connus est celui d’Amazon, qui a abandonné en 2018 un outil de recrutement automatisé après avoir découvert qu’il défavorisait systématiquement les candidatures féminines. Comme l’a révélé Reuters, l’algorithme avait été entraîné sur dix années de CV internes, majoritairement masculins. Résultat : le système pénalisait tout document contenant le mot “women’s” ou des noms d’écoles féminines. Une démonstration implacable de ce que produit une donnée biaisée : un algorithme biaisé.

Dans le domaine de la justice pénale, l’affaire COMPAS a soulevé des inquiétudes similaires. Cet outil prédictif, utilisé aux États-Unis pour évaluer le risque de récidive, a été analysé par ProPublica. Leur enquête a montré que les personnes noires étaient deux fois plus susceptibles d’être faussement classées “à haut risque” que les personnes blanches dans des cas comparables. Le problème n’était pas une “intention raciste” du système, mais un apprentissage sur des données issues d’un système judiciaire lui-même traversé par des inégalités structurelles.

En 2019, Apple a également été critiquée pour son algorithme de carte de crédit Apple Card, développé avec Goldman Sachs, après que plusieurs utilisateurs, dont le fondateur de Basecamp David Heinemeier Hansson, ont dénoncé publiquement des écarts de limite de crédit entre hommes et femmes, à revenu égal. Bloomberg a relayé l’affaire, qui a conduit les autorités financières de l’État de New York à ouvrir une enquête. Même si aucune intention discriminatoire n’a été prouvée, l’épisode a rappelé combien un modèle opaque peut créer des effets d’exclusion silencieux.

Un autre exemple frappant concerne les outils de reconnaissance faciale. En 2020, une étude du MIT Media Lab, dirigée par Joy Buolamwini, a montré que les systèmes commerciaux d’identification visuelle présentaient des taux d’erreur bien plus élevés pour les femmes à la peau foncée que pour les hommes à la peau claire. Ces résultats, repris par The New York Times, ont poussé IBM, Microsoft et Amazon à suspendre ou restreindre leurs ventes de technologies de reconnaissance faciale à la police américaine.

Ces cas, parmi les plus documentés, montrent à quel point les biais algorithmiques ne sont pas de simples incidents techniques, mais le reflet d’inégalités sociétales intégrées dans la donnée elle-même.

Des chercheuses comme Kate Crawford, dans Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, ou Catherine D’Ignazio et Lauren Klein, dans Data Feminism, ont montré que la donnée n’est jamais neutre. Elle traduit une vision du monde, une hiérarchie de valeurs et des structures de pouvoir.

L’éthique numérique et la responsabilité algorithmique ne peuvent donc plus être traitées à la marge. Elles doivent être intégrées dès la conception, dans les phases de design, d’apprentissage et d’évaluation. Il s’agit d’interroger la provenance des données, d’auditer les modèles, de tester les biais potentiels avant leur déploiement.
La transparence, l’explicabilité et la redevabilité deviennent des impératifs pour garantir la confiance.

Les biais ne sont pas une fatalité. Ils sont une opportunité d’ajuster, de comprendre, de faire mieux.
En les reconnaissant pour ce qu’ils sont – des miroirs de nos sociétés – nous pouvons faire du numérique un levier de justice, plutôt qu’un amplificateur d’inégalités.

Intelligence augmentée : la complémentarité plutôt que la substitution

Le débat sur l’intelligence artificielle est souvent posé en termes de confrontation : l’humain contre la machine. Cette opposition est stérile. L’enjeu n’est pas de savoir si la technologie va nous remplacer, mais comment elle peut nous renforcer. L’avenir du numérique ne repose pas sur une intelligence artificielle autonome, mais sur une intelligence augmentée.

L’intelligence augmentée consiste à utiliser la puissance de calcul et d’analyse de la machine pour amplifier les capacités humaines : compréhension, décision, créativité. Elle repose sur la complémentarité, pas sur la substitution.

Dans le domaine de la santé, cette approche a déjà montré sa pertinence. Une étude publiée dans Nature en 2020 par Google Health a démontré qu’un modèle d’IA pouvait aider les radiologues à détecter des cancers du sein sur des mammographies avec un taux d’erreur réduit, sans pour autant se substituer au diagnostic médical. Le rôle de la machine est ici d’assister, d’alerter, d’accélérer, tandis que la décision finale reste humaine. D’autres expériences menées par l’Institut Curie en France vont dans le même sens : l’IA devient un outil d’aide à la décision clinique, pas un médecin virtuel.

Dans le secteur juridique, l’intelligence artificielle est utilisée pour faciliter la recherche documentaire ou analyser des volumes importants de jurisprudence. Des plateformes comme Doctrine.fr ou des outils développés par LexisNexis exploitent le traitement automatique du langage pour aider les avocats à identifier des précédents ou des tendances. L’objectif n’est pas de remplacer la plaidoirie, mais de permettre un gain de temps et une meilleure compréhension des enjeux. La machine trie, mais l’humain interprète.

L’éducation offre aussi des exemples concrets de cette approche. Des projets européens comme Teach4AI ou les expérimentations menées par l’UNESCO explorent la manière dont les outils d’IA peuvent personnaliser l’apprentissage, détecter les difficultés d’un élève et proposer des parcours adaptés, tout en laissant l’enseignant au centre de la pédagogie. L’IA devient un outil de soutien, pas de remplacement.

Cette vision de la technologie comme partenaire plutôt que substitut permet de restaurer un équilibre. La machine apporte la rapidité, la fiabilité et la capacité à traiter des masses d’informations. L’humain conserve la capacité d’empathie, de discernement, de responsabilité.

Le philosophe français Bernard Stiegler, dans ses travaux sur la “pharmacologie du numérique”, rappelait que la technologie est à la fois un poison et un remède : tout dépend de l’usage qu’on en fait. C’est exactement le sens de l’intelligence augmentée. Elle n’est pas une fuite en avant vers l’automatisation totale, mais une tentative d’alliance entre puissance et conscience.

Construire cette alliance suppose trois conditions. D’abord, une formation adaptée : les utilisateurs doivent comprendre les limites de la machine pour en faire un véritable outil d’émancipation. Ensuite, une transparence des systèmes : il faut savoir comment les algorithmes fonctionnent et sur quelles données ils s’appuient. Enfin, une éthique de l’usage : chaque projet technologique doit interroger sa finalité sociale avant son efficacité technique.

L’intelligence augmentée n’est pas une utopie technophile. C’est une orientation stratégique et culturelle. Elle redonne à la technologie sa juste place : non pas celle d’un cerveau de remplacement, mais d’un partenaire de progrès.

Reprendre la main sur la donnée

Remettre l’humain au cœur de la donnée, c’est reconnaître que la donnée n’est pas une ressource neutre ni inépuisable. C’est un matériau vivant, produit par nos comportements, nos relations, nos décisions. Dans un monde où chaque interaction génère une trace numérique, la question centrale n’est plus “combien de données possédons-nous ?”, mais “à quoi servent-elles et à qui profitent-elles ?”.

Depuis plusieurs années, les institutions internationales alertent sur la nécessité d’une gouvernance éthique et démocratique de la donnée. L’OCDE, dans ses Principes sur l’IA adoptés en 2019, a souligné que les systèmes d’intelligence artificielle doivent être “transparents, responsables et centrés sur le bien-être des personnes”. Ces principes ont depuis inspiré la Recommandation sur l’éthique de l’IA adoptée par l’UNESCO en 2021, qui insiste sur la dignité humaine, la diversité culturelle et la protection de la vie privée comme fondements d’une IA responsable (unesco.org).

En Europe, le cadre juridique s’est considérablement renforcé avec le Règlement Général sur la Protection des Données (RGPD), entré en vigueur en 2018. Ce texte a introduit des droits nouveaux pour les citoyens : droit d’accès, de rectification, d’effacement, mais aussi droit à la portabilité. Il impose aux entreprises une obligation de transparence et de minimisation des données. L’Europe est aujourd’hui l’un des rares espaces numériques à avoir fait de la gouvernance de la donnée un pilier de sa souveraineté numérique.

Mais la reprise en main ne relève pas uniquement du droit. Elle repose aussi sur des choix collectifs et culturels. De plus en plus d’organisations adoptent des politiques de data governance qui intègrent la dimension éthique dans la conception des systèmes. La CNIL, en France, publie depuis 2021 des lignes directrices sur les algorithmes et la protection des données, soulignant que la transparence et l’explicabilité doivent être pensées dès le design. Des acteurs comme la Commission européenne encouragent également les démarches de “data ethics by design”, en cohérence avec la future AI Act, en cours d’adoption, qui encadrera les usages de l’intelligence artificielle à risque.

La reprise de contrôle passe aussi par des initiatives citoyennes et territoriales. Des villes comme Barcelone ou Amsterdam ont développé des politiques de data commons, où la donnée urbaine est considérée comme un bien commun. L’initiative DECODE (Decentralised Citizen Owned Data Ecosystems), soutenue par la Commission européenne, explore des modèles de gestion décentralisée permettant aux citoyens de décider à qui ils partagent leurs informations et dans quel but (decodeproject.eu).

Dans le secteur privé, certaines entreprises expérimentent des démarches de transparence radicale. Par exemple, Mozilla a fait de la gouvernance éthique de la donnée un axe stratégique, en développant des outils comme Privacy Not Included pour évaluer la fiabilité des objets connectés. D’autres, comme OVHcloud, promeuvent un modèle européen de cloud “souverain”, conforme au RGPD et aux standards de sécurité européens.

Reprendre la main sur la donnée, c’est donc un triple mouvement. Juridique, pour garantir les droits fondamentaux. Technologique, pour construire des infrastructures responsables et auditées. Culturel, pour restaurer la confiance entre citoyens, institutions et entreprises.

Car une donnée mal utilisée n’est pas seulement un risque pour la vie privée. C’est aussi une perte de sens collectif. À l’inverse, une donnée maîtrisée, partagée avec discernement, peut devenir un formidable levier d’innovation responsable.

L’enjeu est clair : il ne s’agit pas de freiner la transformation numérique, mais de lui redonner un cap. Celui d’une technologie au service de la connaissance, de la justice et du lien social. Une donnée au service de la société, et non l’inverse.

Pour une technologie à hauteur d’humain

L’ère du “Human Tech” ne consiste pas à ralentir le progrès, mais à lui redonner une direction. Celle où la puissance de la donnée s’allie à la conscience, où l’efficacité ne se mesure pas seulement en performance mais en impact humain.

Remettre l’humain au cœur du numérique, c’est refuser la démesure. C’est concevoir des technologies sobres, justes et explicables. C’est accepter que la vraie innovation ne se trouve pas dans la complexité des algorithmes, mais dans la clarté des intentions.

La donnée n’est pas un produit. C’est une responsabilité partagée.

Et si la technologie a un avenir, il sera à hauteur d’humain.

Sources et lectures recommandées

ADEME & ARCEP (2022)Étude sur l’empreinte environnementale du numérique en France
https://www.ademe.fr

UNESCO (2021)Recommandation sur l’éthique de l’intelligence artificielle
https://www.unesco.org/en/artificial-intelligence/recommendation-ethics

OCDE (2019)Principes de l’OCDE sur l’intelligence artificielle
https://oecd.ai/en/ai-principles

Règlement général sur la protection des données (RGPD)Texte officiel de l’Union européenne
https://eur-lex.europa.eu/eli/reg/2016/679/oj

Kate Crawford (2021)Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press
https://yalebooks.yale.edu/book/9780300209570/atlas-of-ai

Catherine D’Ignazio & Lauren Klein (2020)Data Feminism, MIT Press
https://mitpress.mit.edu/9780262044004/data-feminism

ProPublica (2016)Machine Bias: Risk Assessments in Criminal Sentencing
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Reuters (2018)Amazon scraps secret AI recruiting tool that showed bias against women
https://www.reuters.com/article/idUSKCN1MK0AG

Bloomberg (2019)Apple Card Algorithm Doubts Linger as Goldman Responds to Bias Claims
https://www.bloomberg.com/news/articles/2019-11-10/apple-card-algorithm-doubts-linger-as-goldman-responds-to-bias-claims

MIT Media Lab (2018)Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification
http://gendershades.org

Nature (2020)International evaluation of an AI system for breast cancer screening
https://www.nature.com/articles/s41586-020-2973-6

Decode Project (2019)Decentralised Citizen Owned Data Ecosystems
https://decodeproject.eu

CNIL (2021)Algorithmes : comment renforcer la transparence et la loyauté
https://www.cnil.fr/fr/algorithmes-comment-renforcer-la-transparence-et-la-loyaute

#HumanTech #SobriétéNumérique #ÉthiqueNumérique #IntelligenceAugmentée #CroissanceResponsable

L’ère du Human Tech : remettre l’humain au cœur de la donnée
Retour en haut