{"id":3688,"date":"2025-06-06T20:44:39","date_gmt":"2025-06-06T18:44:39","guid":{"rendered":"https:\/\/taniagombert.com\/?p=3688"},"modified":"2025-11-01T13:52:19","modified_gmt":"2025-11-01T11:52:19","slug":"lere-du-human-tech-remettre-lhumain-au-coeur-de-la-donnee","status":"publish","type":"post","link":"https:\/\/taniagombert.com\/index.php\/2025\/06\/06\/lere-du-human-tech-remettre-lhumain-au-coeur-de-la-donnee\/","title":{"rendered":"L\u2019\u00e8re du Human Tech : remettre l\u2019humain au c\u0153ur de la donn\u00e9e"},"content":{"rendered":"\t\t<div data-elementor-type=\"wp-post\" data-elementor-id=\"3688\" class=\"elementor elementor-3688\">\n\t\t\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-77fe83c elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"77fe83c\" data-element_type=\"section\" data-e-type=\"section\" data-settings=\"{&quot;background_background&quot;:&quot;classic&quot;}\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-0a0f6ae\" data-id=\"0a0f6ae\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-577afc5 elementor-widget elementor-widget-heading\" data-id=\"577afc5\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h1 class=\"elementor-heading-title elementor-size-default\">L\u2019\u00e8re du Human Tech : remettre l\u2019humain au c\u0153ur de la donn\u00e9e<\/h1>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-c3a3233 elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"c3a3233\" data-element_type=\"section\" data-e-type=\"section\" data-settings=\"{&quot;background_background&quot;:&quot;classic&quot;}\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-50 elementor-top-column elementor-element elementor-element-c2915ec\" data-id=\"c2915ec\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-6964b0d elementor-widget__width-initial elementor-widget elementor-widget-image\" data-id=\"6964b0d\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"image.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img fetchpriority=\"high\" decoding=\"async\" width=\"512\" height=\"512\" src=\"https:\/\/taniagombert.com\/wp-content\/uploads\/2025\/06\/Tania-Cyber.webp\" class=\"attachment-full size-full wp-image-3729\" alt=\"\" srcset=\"https:\/\/taniagombert.com\/wp-content\/uploads\/2025\/06\/Tania-Cyber.webp 512w, https:\/\/taniagombert.com\/wp-content\/uploads\/2025\/06\/Tania-Cyber-300x300.webp 300w, https:\/\/taniagombert.com\/wp-content\/uploads\/2025\/06\/Tania-Cyber-150x150.webp 150w\" sizes=\"(max-width: 512px) 100vw, 512px\" \/>\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t<div class=\"elementor-column elementor-col-50 elementor-top-column elementor-element elementor-element-3783093\" data-id=\"3783093\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-ee8dad6 elementor-widget elementor-widget-text-editor\" data-id=\"ee8dad6\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p data-start=\"160\" data-end=\"465\">On parle beaucoup d\u2019intelligence artificielle, de data, de deep learning. Ces termes ont envahi les conversations, les conf\u00e9rences, les strat\u00e9gies d\u2019entreprise. Ils traduisent un monde qui cherche \u00e0 comprendre, anticiper, optimiser. Pourtant, derri\u00e8re ces mots techniques, il y a autre chose : l\u2019humain.<\/p><p data-start=\"467\" data-end=\"891\">La technologie n\u2019est pas neutre. Elle est le reflet de ceux qui la con\u00e7oivent, de leurs valeurs, de leurs priorit\u00e9s, de leurs angles morts. Chaque mod\u00e8le, chaque algorithme, chaque base de donn\u00e9es est travers\u00e9 par des choix humains, parfois assum\u00e9s, souvent implicites. Une IA qui trie des candidatures ou analyse des comportements ne fait que reproduire des logiques existantes, parfois biais\u00e9es, parfois discriminantes.<\/p><p data-start=\"893\" data-end=\"1189\">L\u2019enjeu n\u2019est donc plus seulement de d\u00e9velopper des syst\u00e8mes performants, mais de leur redonner du sens. Nous avons cherch\u00e9 \u00e0 tout mesurer, \u00e0 tout pr\u00e9dire, \u00e0 tout automatiser. Et dans cette qu\u00eate d\u2019efficacit\u00e9, nous avons parfois perdu de vue l\u2019essentiel : la finalit\u00e9 humaine de la technologie.<\/p><p data-start=\"1191\" data-end=\"1531\">Remettre l\u2019humain au centre, ce n\u2019est pas un slogan, c\u2019est une n\u00e9cessit\u00e9 strat\u00e9gique et \u00e9thique. C\u2019est reconna\u00eetre que la donn\u00e9e n\u2019a de valeur que si elle sert la compr\u00e9hension, la d\u00e9cision, la relation. C\u2019est accepter que la technologie ne soit pas une fin en soi, mais un levier au service de la soci\u00e9t\u00e9, des individus, des \u00e9cosyst\u00e8mes.<\/p><p data-start=\"1533\" data-end=\"1860\">L\u2019\u00e8re du \u201cHuman Tech\u201d commence l\u00e0 : non pas dans le rejet de la machine, mais dans la recherche d\u2019un nouvel \u00e9quilibre. Une technologie qui n\u2019imite pas l\u2019humain, mais qui l\u2019augmente. Qui ne cherche pas \u00e0 nous remplacer, mais \u00e0 nous renforcer. Une technologie consciente de ses impacts, de ses limites, et de sa responsabilit\u00e9.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-bf9d322 elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"bf9d322\" data-element_type=\"section\" data-e-type=\"section\" data-settings=\"{&quot;background_background&quot;:&quot;slideshow&quot;,&quot;background_slideshow_gallery&quot;:[{&quot;id&quot;:3638,&quot;url&quot;:&quot;https:\\\/\\\/taniagombert.com\\\/wp-content\\\/uploads\\\/2025\\\/05\\\/Paper_09.png&quot;}],&quot;background_slideshow_loop&quot;:&quot;yes&quot;,&quot;background_slideshow_slide_duration&quot;:5000,&quot;background_slideshow_slide_transition&quot;:&quot;fade&quot;,&quot;background_slideshow_transition_duration&quot;:500}\">\n\t\t\t\t\t\t\t<div class=\"elementor-background-overlay\"><\/div>\n\t\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-932c6d1\" data-id=\"932c6d1\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-d0680bf elementor-widget elementor-widget-heading\" data-id=\"d0680bf\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Sobri\u00e9t\u00e9 num\u00e9rique : ralentir pour mieux voir<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-310adae elementor-widget elementor-widget-text-editor\" data-id=\"310adae\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p data-start=\"99\" data-end=\"328\">La sobri\u00e9t\u00e9 num\u00e9rique n\u2019est pas un frein \u00e0 l\u2019innovation ; c\u2019est une forme de lucidit\u00e9. Elle invite \u00e0 questionner la d\u00e9mesure de nos usages technologiques et \u00e0 replacer la <strong data-start=\"270\" data-end=\"288\">valeur d\u2019usage<\/strong> avant la fascination pour la puissance.<\/p><p data-start=\"330\" data-end=\"886\">Chaque clic, chaque requ\u00eate, chaque serveur sollicit\u00e9 a un co\u00fbt\u00a0 \u00e9nerg\u00e9tique, environnemental, humain. Le secteur num\u00e9rique repr\u00e9senterait aujourd\u2019hui <strong data-start=\"482\" data-end=\"555\">environ 3 \u00e0 4 % des \u00e9missions mondiales de gaz \u00e0 effet de serre (GES)<\/strong>. En France, selon une \u00e9tude conjointe de <span class=\"hover:entity-accent entity-underline inline cursor-pointer align-baseline\"><span class=\"whitespace-normal\">ADEME<\/span><\/span> et <span class=\"hover:entity-accent entity-underline inline cursor-pointer align-baseline\"><span class=\"whitespace-normal\">ARCEP<\/span><\/span>, le num\u00e9rique repr\u00e9sentait <strong data-start=\"704\" data-end=\"754\">4,4 % de l\u2019empreinte carbone nationale en 2022<\/strong> (soit 29,5 MtCO\u2082e) La perspective d\u2019une hausse est bien r\u00e9elle : sans actions fortes, cette part pourrait <strong data-start=\"862\" data-end=\"884\">tripler d\u2019ici 2050<\/strong>.<\/p><p data-start=\"888\" data-end=\"1144\">Ce constat ne r\u00e9duit pas la sobri\u00e9t\u00e9 num\u00e9rique \u00e0 une simple question environnementale ; elle est <strong data-start=\"985\" data-end=\"1036\">aussi une exigence intellectuelle et culturelle<\/strong>. Elle nous pousse \u00e0 concevoir des syst\u00e8mes utiles, inclusifs, proportionn\u00e9s. \u00c0 faire \u00ab moins \u00bb, mais mieux.<\/p><p data-start=\"1146\" data-end=\"1503\">Ce n\u2019est pas la quantit\u00e9 de donn\u00e9es ou le nombre d\u2019usages qui rend une technologie pertinente ; c\u2019est la <strong data-start=\"1251\" data-end=\"1278\">qualit\u00e9 de la r\u00e9flexion<\/strong> qu\u2019elle sert. Quand on r\u00e9fl\u00e9chit \u00e0 l\u2019usage r\u00e9el d\u2019un service num\u00e9rique, \u00e0 la friction qu\u2019il enl\u00e8ve, \u00e0 l\u2019empreinte qu\u2019il laisse, on se donne la chance de cr\u00e9er une technologie qui enrichit l\u2019humain plut\u00f4t que de l\u2019hypnotiser.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-0ac2cdd elementor-widget elementor-widget-heading\" data-id=\"0ac2cdd\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Les biais : miroirs de nos soci\u00e9t\u00e9s<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-4dc6832 elementor-widget elementor-widget-text-editor\" data-id=\"4dc6832\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p data-start=\"267\" data-end=\"715\">Les biais algorithmiques ne sont pas des erreurs isol\u00e9es ou des \u201cbugs\u201d mineurs. Ils r\u00e9v\u00e8lent nos propres d\u00e9s\u00e9quilibres, nos angles morts et les rapports de pouvoir que nos syst\u00e8mes technologiques reproduisent. Lorsqu\u2019un algorithme renforce des st\u00e9r\u00e9otypes de genre, d\u2019origine ou de classe sociale, ce n\u2019est pas la machine qui est raciste ou sexiste, c\u2019est le contexte de donn\u00e9es, le cadre de formation et les d\u00e9cisions humaines qui l\u2019ont fa\u00e7onn\u00e9.<\/p><p data-start=\"717\" data-end=\"1362\">L\u2019un des cas les plus connus est celui d\u2019<strong data-start=\"758\" data-end=\"768\">Amazon<\/strong>, qui a abandonn\u00e9 en 2018 un outil de recrutement automatis\u00e9 apr\u00e8s avoir d\u00e9couvert qu\u2019il d\u00e9favorisait syst\u00e9matiquement les candidatures f\u00e9minines. Comme l\u2019a r\u00e9v\u00e9l\u00e9 <a class=\"decorated-link\" href=\"https:\/\/www.reuters.com\/article\/world\/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG?utm_source=chatgpt.com\" target=\"_new\" rel=\"noopener\" data-start=\"932\" data-end=\"1073\">Reuters<\/a>, l\u2019algorithme avait \u00e9t\u00e9 entra\u00een\u00e9 sur dix ann\u00e9es de CV internes, majoritairement masculins. R\u00e9sultat : le syst\u00e8me p\u00e9nalisait tout document contenant le mot \u201cwomen\u2019s\u201d ou des noms d\u2019\u00e9coles f\u00e9minines. Une d\u00e9monstration implacable de ce que produit une donn\u00e9e biais\u00e9e : un algorithme biais\u00e9.<\/p><p data-start=\"1364\" data-end=\"2023\">Dans le domaine de la justice p\u00e9nale, l\u2019affaire <strong data-start=\"1412\" data-end=\"1422\">COMPAS<\/strong> a soulev\u00e9 des inqui\u00e9tudes similaires. Cet outil pr\u00e9dictif, utilis\u00e9 aux \u00c9tats-Unis pour \u00e9valuer le risque de r\u00e9cidive, a \u00e9t\u00e9 analys\u00e9 par <a class=\"decorated-link\" href=\"https:\/\/www.propublica.org\/article\/machine-bias-risk-assessments-in-criminal-sentencing?utm_source=chatgpt.com\" target=\"_new\" rel=\"noopener\" data-start=\"1559\" data-end=\"1660\">ProPublica<\/a>. Leur enqu\u00eate a montr\u00e9 que les personnes noires \u00e9taient deux fois plus susceptibles d\u2019\u00eatre faussement class\u00e9es \u201c\u00e0 haut risque\u201d que les personnes blanches dans des cas comparables. Le probl\u00e8me n\u2019\u00e9tait pas une \u201cintention raciste\u201d du syst\u00e8me, mais un apprentissage sur des donn\u00e9es issues d\u2019un syst\u00e8me judiciaire lui-m\u00eame travers\u00e9 par des in\u00e9galit\u00e9s structurelles.<\/p><p data-start=\"2025\" data-end=\"2724\">En 2019, <strong data-start=\"2034\" data-end=\"2043\">Apple<\/strong> a \u00e9galement \u00e9t\u00e9 critiqu\u00e9e pour son algorithme de carte de cr\u00e9dit Apple Card, d\u00e9velopp\u00e9 avec Goldman Sachs, apr\u00e8s que plusieurs utilisateurs, dont le fondateur de Basecamp David Heinemeier Hansson, ont d\u00e9nonc\u00e9 publiquement des \u00e9carts de limite de cr\u00e9dit entre hommes et femmes, \u00e0 revenu \u00e9gal. <a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"2336\" data-end=\"2469\">Bloomberg<\/a> a relay\u00e9 l\u2019affaire, qui a conduit les autorit\u00e9s financi\u00e8res de l\u2019\u00c9tat de New York \u00e0 ouvrir une enqu\u00eate. M\u00eame si aucune intention discriminatoire n\u2019a \u00e9t\u00e9 prouv\u00e9e, l\u2019\u00e9pisode a rappel\u00e9 combien un mod\u00e8le opaque peut cr\u00e9er des effets d\u2019exclusion silencieux.<\/p><p data-start=\"2726\" data-end=\"3342\">Un autre exemple frappant concerne les outils de reconnaissance faciale. En 2020, une \u00e9tude du <strong data-start=\"2821\" data-end=\"2838\">MIT Media Lab<\/strong>, dirig\u00e9e par Joy Buolamwini, a montr\u00e9 que les syst\u00e8mes commerciaux d\u2019identification visuelle pr\u00e9sentaient des taux d\u2019erreur bien plus \u00e9lev\u00e9s pour les femmes \u00e0 la peau fonc\u00e9e que pour les hommes \u00e0 la peau claire. Ces r\u00e9sultats, repris par <a class=\"decorated-link\" href=\"https:\/\/www.nytimes.com\/2018\/02\/09\/technology\/facial-recognition-race-artificial-intelligence.html\" target=\"_new\" rel=\"noopener\" data-start=\"3077\" data-end=\"3197\">The New York Times<\/a>, ont pouss\u00e9 IBM, Microsoft et Amazon \u00e0 suspendre ou restreindre leurs ventes de technologies de reconnaissance faciale \u00e0 la police am\u00e9ricaine.<\/p><p data-start=\"3344\" data-end=\"3548\">Ces cas, parmi les plus document\u00e9s, montrent \u00e0 quel point les biais algorithmiques ne sont pas de simples incidents techniques, mais le reflet d\u2019in\u00e9galit\u00e9s soci\u00e9tales int\u00e9gr\u00e9es dans la donn\u00e9e elle-m\u00eame.<\/p><p data-start=\"3550\" data-end=\"4006\">Des chercheuses comme <strong data-start=\"3572\" data-end=\"3589\">Kate Crawford<\/strong>, dans <em data-start=\"3596\" data-end=\"3740\"><a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"3597\" data-end=\"3739\">Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence<\/a><\/em>, ou <strong data-start=\"3745\" data-end=\"3768\">Catherine D\u2019Ignazio<\/strong> et <strong data-start=\"3772\" data-end=\"3788\">Lauren Klein<\/strong>, dans <em data-start=\"3795\" data-end=\"3867\"><a class=\"decorated-link\" href=\"https:\/\/mitpress.mit.edu\/9780262044004\/data-feminism\/\" target=\"_new\" rel=\"noopener\" data-start=\"3796\" data-end=\"3866\">Data Feminism<\/a><\/em>, ont montr\u00e9 que la donn\u00e9e n\u2019est jamais neutre. Elle traduit une vision du monde, une hi\u00e9rarchie de valeurs et des structures de pouvoir.<\/p><p data-start=\"4008\" data-end=\"4455\">L\u2019\u00e9thique num\u00e9rique et la responsabilit\u00e9 algorithmique ne peuvent donc plus \u00eatre trait\u00e9es \u00e0 la marge. Elles doivent \u00eatre int\u00e9gr\u00e9es d\u00e8s la conception, dans les phases de design, d\u2019apprentissage et d\u2019\u00e9valuation. Il s\u2019agit d\u2019interroger la provenance des donn\u00e9es, d\u2019auditer les mod\u00e8les, de tester les biais potentiels avant leur d\u00e9ploiement.<br data-start=\"4345\" data-end=\"4348\" \/>La transparence, l\u2019explicabilit\u00e9 et la redevabilit\u00e9 deviennent des imp\u00e9ratifs pour garantir la confiance.<\/p><p data-start=\"4457\" data-end=\"4731\">Les biais ne sont pas une fatalit\u00e9. Ils sont une opportunit\u00e9 d\u2019ajuster, de comprendre, de faire mieux.<br data-start=\"4559\" data-end=\"4562\" \/>En les reconnaissant pour ce qu\u2019ils sont \u2013 des miroirs de nos soci\u00e9t\u00e9s \u2013 nous pouvons faire du num\u00e9rique un levier de justice, plut\u00f4t qu\u2019un amplificateur d\u2019in\u00e9galit\u00e9s.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-d9269d5 elementor-widget elementor-widget-heading\" data-id=\"d9269d5\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Intelligence augment\u00e9e : la compl\u00e9mentarit\u00e9 plut\u00f4t que la substitution<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-eeeb15c elementor-widget elementor-widget-text-editor\" data-id=\"eeeb15c\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p data-start=\"369\" data-end=\"740\">Le d\u00e9bat sur l\u2019intelligence artificielle est souvent pos\u00e9 en termes de confrontation : l\u2019humain contre la machine. Cette opposition est st\u00e9rile. L\u2019enjeu n\u2019est pas de savoir si la technologie va nous remplacer, mais comment elle peut nous renforcer. L\u2019avenir du num\u00e9rique ne repose pas sur une intelligence artificielle autonome, mais sur une <strong data-start=\"711\" data-end=\"737\">intelligence augment\u00e9e<\/strong>.<\/p><p data-start=\"742\" data-end=\"976\">L\u2019intelligence augment\u00e9e consiste \u00e0 utiliser la puissance de calcul et d\u2019analyse de la machine pour amplifier les capacit\u00e9s humaines : compr\u00e9hension, d\u00e9cision, cr\u00e9ativit\u00e9. Elle repose sur la compl\u00e9mentarit\u00e9, pas sur la substitution.<\/p><p data-start=\"978\" data-end=\"1755\">Dans le domaine de la sant\u00e9, cette approche a d\u00e9j\u00e0 montr\u00e9 sa pertinence. Une \u00e9tude publi\u00e9e dans <em data-start=\"1074\" data-end=\"1082\">Nature<\/em> en 2020 par <a class=\"decorated-link\" href=\"https:\/\/www.nature.com\/articles\/s41586-020-2973-6\" target=\"_new\" rel=\"noopener\" data-start=\"1095\" data-end=\"1161\">Google Health<\/a> a d\u00e9montr\u00e9 qu\u2019un mod\u00e8le d\u2019IA pouvait aider les radiologues \u00e0 d\u00e9tecter des cancers du sein sur des mammographies avec un taux d\u2019erreur r\u00e9duit, sans pour autant se substituer au diagnostic m\u00e9dical. Le r\u00f4le de la machine est ici d\u2019assister, d\u2019alerter, d\u2019acc\u00e9l\u00e9rer, tandis que la d\u00e9cision finale reste humaine. D\u2019autres exp\u00e9riences men\u00e9es par <a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"1501\" data-end=\"1641\">l\u2019Institut Curie<\/a> en France vont dans le m\u00eame sens : l\u2019IA devient un outil d\u2019aide \u00e0 la d\u00e9cision clinique, pas un m\u00e9decin virtuel.<\/p><p data-start=\"1757\" data-end=\"2309\">Dans le secteur juridique, l\u2019intelligence artificielle est utilis\u00e9e pour faciliter la recherche documentaire ou analyser des volumes importants de jurisprudence. Des plateformes comme <a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"1941\" data-end=\"1980\">Doctrine.fr<\/a> ou des outils d\u00e9velopp\u00e9s par LexisNexis exploitent le traitement automatique du langage pour aider les avocats \u00e0 identifier des pr\u00e9c\u00e9dents ou des tendances. L\u2019objectif n\u2019est pas de remplacer la plaidoirie, mais de permettre un gain de temps et une meilleure compr\u00e9hension des enjeux. La machine trie, mais l\u2019humain interpr\u00e8te.<\/p><p data-start=\"2311\" data-end=\"2808\">L\u2019\u00e9ducation offre aussi des exemples concrets de cette approche. Des projets europ\u00e9ens comme <a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"2404\" data-end=\"2436\">Teach4AI<\/a> ou les exp\u00e9rimentations men\u00e9es par <a class=\"decorated-link\" href=\"https:\/\/www.unesco.org\/en\/artificial-intelligence\/education\" target=\"_new\" rel=\"noopener\" data-start=\"2472\" data-end=\"2543\">l\u2019UNESCO<\/a> explorent la mani\u00e8re dont les outils d\u2019IA peuvent personnaliser l\u2019apprentissage, d\u00e9tecter les difficult\u00e9s d\u2019un \u00e9l\u00e8ve et proposer des parcours adapt\u00e9s, tout en laissant l\u2019enseignant au centre de la p\u00e9dagogie. L\u2019IA devient un outil de soutien, pas de remplacement.<\/p><p data-start=\"2810\" data-end=\"3089\">Cette vision de la technologie comme partenaire plut\u00f4t que substitut permet de restaurer un \u00e9quilibre. La machine apporte la rapidit\u00e9, la fiabilit\u00e9 et la capacit\u00e9 \u00e0 traiter des masses d\u2019informations. L\u2019humain conserve la capacit\u00e9 d\u2019empathie, de discernement, de responsabilit\u00e9.<\/p><p data-start=\"3091\" data-end=\"3472\">Le philosophe fran\u00e7ais Bernard Stiegler, dans ses travaux sur la \u201cpharmacologie du num\u00e9rique\u201d, rappelait que la technologie est \u00e0 la fois un poison et un rem\u00e8de : tout d\u00e9pend de l\u2019usage qu\u2019on en fait. C\u2019est exactement le sens de l\u2019intelligence augment\u00e9e. Elle n\u2019est pas une fuite en avant vers l\u2019automatisation totale, mais une tentative d\u2019alliance entre puissance et conscience.<\/p><p data-start=\"3474\" data-end=\"3943\">Construire cette alliance suppose trois conditions. D\u2019abord, une <strong data-start=\"3539\" data-end=\"3552\">formation<\/strong> adapt\u00e9e : les utilisateurs doivent comprendre les limites de la machine pour en faire un v\u00e9ritable outil d\u2019\u00e9mancipation. Ensuite, une <strong data-start=\"3687\" data-end=\"3703\">transparence<\/strong> des syst\u00e8mes : il faut savoir comment les algorithmes fonctionnent et sur quelles donn\u00e9es ils s\u2019appuient. Enfin, une <strong data-start=\"3821\" data-end=\"3843\">\u00e9thique de l\u2019usage<\/strong> : chaque projet technologique doit interroger sa finalit\u00e9 sociale avant son efficacit\u00e9 technique.<\/p><p data-start=\"3945\" data-end=\"4178\">L\u2019intelligence augment\u00e9e n\u2019est pas une utopie technophile. C\u2019est une orientation strat\u00e9gique et culturelle. Elle redonne \u00e0 la technologie sa juste place : non pas celle d\u2019un cerveau de remplacement, mais d\u2019un partenaire de progr\u00e8s.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-f7713d9 elementor-widget elementor-widget-heading\" data-id=\"f7713d9\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Reprendre la main sur la donn\u00e9e<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-7489221 elementor-widget elementor-widget-text-editor\" data-id=\"7489221\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p data-start=\"270\" data-end=\"668\">Remettre l\u2019humain au c\u0153ur de la donn\u00e9e, c\u2019est reconna\u00eetre que la donn\u00e9e n\u2019est pas une ressource neutre ni in\u00e9puisable. C\u2019est un mat\u00e9riau vivant, produit par nos comportements, nos relations, nos d\u00e9cisions. Dans un monde o\u00f9 chaque interaction g\u00e9n\u00e8re une trace num\u00e9rique, la question centrale n\u2019est plus \u201ccombien de donn\u00e9es poss\u00e9dons-nous ?\u201d, mais \u201c\u00e0 quoi servent-elles et \u00e0 qui profitent-elles ?\u201d.<\/p><p data-start=\"670\" data-end=\"1343\">Depuis plusieurs ann\u00e9es, les institutions internationales alertent sur la n\u00e9cessit\u00e9 d\u2019une gouvernance \u00e9thique et d\u00e9mocratique de la donn\u00e9e. L\u2019<strong data-start=\"812\" data-end=\"820\">OCDE<\/strong>, dans ses <em data-start=\"831\" data-end=\"851\">Principes sur l\u2019IA<\/em> adopt\u00e9s en 2019, a soulign\u00e9 que les syst\u00e8mes d\u2019intelligence artificielle doivent \u00eatre \u201ctransparents, responsables et centr\u00e9s sur le bien-\u00eatre des personnes\u201d. Ces principes ont depuis inspir\u00e9 la <strong data-start=\"1046\" data-end=\"1086\">Recommandation sur l\u2019\u00e9thique de l\u2019IA<\/strong> adopt\u00e9e par l\u2019<strong data-start=\"1101\" data-end=\"1111\">UNESCO<\/strong> en 2021, qui insiste sur la dignit\u00e9 humaine, la diversit\u00e9 culturelle et la protection de la vie priv\u00e9e comme fondements d\u2019une IA responsable (<a class=\"decorated-link\" href=\"https:\/\/www.unesco.org\/en\/artificial-intelligence\/recommendation-ethics?utm_source=chatgpt.com\" target=\"_new\" rel=\"noopener\" data-start=\"1254\" data-end=\"1339\">unesco.org<\/a>).<\/p><p data-start=\"1345\" data-end=\"1877\">En Europe, le cadre juridique s\u2019est consid\u00e9rablement renforc\u00e9 avec le <strong data-start=\"1415\" data-end=\"1473\">R\u00e8glement G\u00e9n\u00e9ral sur la Protection des Donn\u00e9es (RGPD)<\/strong>, entr\u00e9 en vigueur en 2018. Ce texte a introduit des droits nouveaux pour les citoyens : droit d\u2019acc\u00e8s, de rectification, d\u2019effacement, mais aussi droit \u00e0 la portabilit\u00e9. Il impose aux entreprises une obligation de transparence et de minimisation des donn\u00e9es. L\u2019Europe est aujourd\u2019hui l\u2019un des rares espaces num\u00e9riques \u00e0 avoir fait de la gouvernance de la donn\u00e9e un pilier de sa souverainet\u00e9 num\u00e9rique.<\/p><p data-start=\"1879\" data-end=\"2583\">Mais la reprise en main ne rel\u00e8ve pas uniquement du droit. Elle repose aussi sur des choix collectifs et culturels. De plus en plus d\u2019organisations adoptent des politiques de <strong data-start=\"2054\" data-end=\"2073\">data governance<\/strong> qui int\u00e8grent la dimension \u00e9thique dans la conception des syst\u00e8mes. La <strong data-start=\"2145\" data-end=\"2153\">CNIL<\/strong>, en France, publie depuis 2021 des lignes directrices sur les algorithmes et la protection des donn\u00e9es, soulignant que la transparence et l\u2019explicabilit\u00e9 doivent \u00eatre pens\u00e9es d\u00e8s le design. Des acteurs comme la <strong data-start=\"2365\" data-end=\"2390\">Commission europ\u00e9enne<\/strong> encouragent \u00e9galement les d\u00e9marches de \u201cdata ethics by design\u201d, en coh\u00e9rence avec la future <strong data-start=\"2483\" data-end=\"2493\">AI Act<\/strong>, en cours d\u2019adoption, qui encadrera les usages de l\u2019intelligence artificielle \u00e0 risque.<\/p><p data-start=\"2585\" data-end=\"3119\">La reprise de contr\u00f4le passe aussi par des initiatives citoyennes et territoriales. Des villes comme <strong data-start=\"2686\" data-end=\"2699\">Barcelone<\/strong> ou <strong data-start=\"2703\" data-end=\"2716\">Amsterdam<\/strong> ont d\u00e9velopp\u00e9 des politiques de <strong data-start=\"2749\" data-end=\"2765\">data commons<\/strong>, o\u00f9 la donn\u00e9e urbaine est consid\u00e9r\u00e9e comme un bien commun. L\u2019initiative <em data-start=\"2838\" data-end=\"2846\">DECODE<\/em> (Decentralised Citizen Owned Data Ecosystems), soutenue par la Commission europ\u00e9enne, explore des mod\u00e8les de gestion d\u00e9centralis\u00e9e permettant aux citoyens de d\u00e9cider \u00e0 qui ils partagent leurs informations et dans quel but (<a class=\"decorated-link\" href=\"https:\/\/decodeproject.eu\/\" target=\"_new\" rel=\"noopener\" data-start=\"3070\" data-end=\"3115\">decodeproject.eu<\/a>).<\/p><p data-start=\"3121\" data-end=\"3554\">Dans le secteur priv\u00e9, certaines entreprises exp\u00e9rimentent des d\u00e9marches de transparence radicale. Par exemple, <strong data-start=\"3233\" data-end=\"3244\">Mozilla<\/strong> a fait de la gouvernance \u00e9thique de la donn\u00e9e un axe strat\u00e9gique, en d\u00e9veloppant des outils comme <em data-start=\"3343\" data-end=\"3365\">Privacy Not Included<\/em> pour \u00e9valuer la fiabilit\u00e9 des objets connect\u00e9s. D\u2019autres, comme <strong data-start=\"3430\" data-end=\"3442\">OVHcloud<\/strong>, promeuvent un mod\u00e8le europ\u00e9en de cloud \u201csouverain\u201d, conforme au RGPD et aux standards de s\u00e9curit\u00e9 europ\u00e9ens.<\/p><p data-start=\"3556\" data-end=\"3832\">Reprendre la main sur la donn\u00e9e, c\u2019est donc un triple mouvement. Juridique, pour garantir les droits fondamentaux. Technologique, pour construire des infrastructures responsables et audit\u00e9es. Culturel, pour restaurer la confiance entre citoyens, institutions et entreprises.<\/p><p data-start=\"3834\" data-end=\"4077\">Car une donn\u00e9e mal utilis\u00e9e n\u2019est pas seulement un risque pour la vie priv\u00e9e. C\u2019est aussi une perte de sens collectif. \u00c0 l\u2019inverse, une donn\u00e9e ma\u00eetris\u00e9e, partag\u00e9e avec discernement, peut devenir un formidable levier d\u2019innovation responsable.<\/p><p data-start=\"4079\" data-end=\"4329\">L\u2019enjeu est clair : il ne s\u2019agit pas de freiner la transformation num\u00e9rique, mais de lui redonner un cap. Celui d\u2019une technologie au service de la connaissance, de la justice et du lien social. Une donn\u00e9e au service de la soci\u00e9t\u00e9, et non l\u2019inverse.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-2b1e844 elementor-widget elementor-widget-heading\" data-id=\"2b1e844\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Pour une technologie \u00e0 hauteur d\u2019humain<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-822f545 elementor-widget elementor-widget-text-editor\" data-id=\"822f545\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p data-start=\"221\" data-end=\"459\">L\u2019\u00e8re du \u201cHuman Tech\u201d ne consiste pas \u00e0 ralentir le progr\u00e8s, mais \u00e0 lui redonner une direction. Celle o\u00f9 la puissance de la donn\u00e9e s\u2019allie \u00e0 la conscience, o\u00f9 l\u2019efficacit\u00e9 ne se mesure pas seulement en performance mais en impact humain.<\/p><p data-start=\"461\" data-end=\"721\">Remettre l\u2019humain au c\u0153ur du num\u00e9rique, c\u2019est refuser la d\u00e9mesure. C\u2019est concevoir des technologies sobres, justes et explicables. C\u2019est accepter que la vraie innovation ne se trouve pas dans la complexit\u00e9 des algorithmes, mais dans la clart\u00e9 des intentions.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-7ad1e9a elementor-view-default elementor-widget elementor-widget-icon\" data-id=\"7ad1e9a\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"icon.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t<div class=\"elementor-icon-wrapper\">\n\t\t\t<div class=\"elementor-icon elementor-animation-grow\">\n\t\t\t<i aria-hidden=\"true\" class=\"fas fa-quote-left\"><\/i>\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-9413bad elementor-widget elementor-widget-testimonial\" data-id=\"9413bad\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"testimonial.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t<div class=\"elementor-testimonial-wrapper\">\n\t\t\t\t\t\t\t<div class=\"elementor-testimonial-content\">La donn\u00e9e n\u2019est pas un produit. C\u2019est une responsabilit\u00e9 partag\u00e9e.<\/div>\n\t\t\t\n\t\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-3e2c0ba elementor-widget elementor-widget-text-editor\" data-id=\"3e2c0ba\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Et si la technologie a un avenir, il sera \u00e0 hauteur d\u2019humain.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-4696abd elementor-widget elementor-widget-heading\" data-id=\"4696abd\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">Sources et lectures recommand\u00e9es<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-46cde47 elementor-widget elementor-widget-text-editor\" data-id=\"46cde47\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p data-start=\"231\" data-end=\"370\"><strong data-start=\"231\" data-end=\"255\">ADEME &amp; ARCEP (2022)<\/strong> \u2013 <em data-start=\"258\" data-end=\"321\">\u00c9tude sur l\u2019empreinte environnementale du num\u00e9rique en France<\/em><br data-start=\"321\" data-end=\"324\" \/><a class=\"decorated-link\" href=\"https:\/\/www.ademe.fr\" target=\"_new\" rel=\"noopener\" data-start=\"324\" data-end=\"368\">https:\/\/www.ademe.fr<\/a><\/p><p data-start=\"372\" data-end=\"604\"><strong data-start=\"372\" data-end=\"389\">UNESCO (2021)<\/strong> \u2013 <em data-start=\"392\" data-end=\"453\">Recommandation sur l\u2019\u00e9thique de l\u2019intelligence artificielle<\/em><br data-start=\"453\" data-end=\"456\" \/><a class=\"decorated-link\" href=\"https:\/\/www.unesco.org\/en\/artificial-intelligence\/recommendation-ethics?utm_source=chatgpt.com\" target=\"_new\" rel=\"noopener\" data-start=\"456\" data-end=\"602\">https:\/\/www.unesco.org\/en\/artificial-intelligence\/recommendation-ethics<\/a><\/p><p data-start=\"606\" data-end=\"750\"><strong data-start=\"606\" data-end=\"621\">OCDE (2019)<\/strong> \u2013 <em data-start=\"624\" data-end=\"677\">Principes de l\u2019OCDE sur l\u2019intelligence artificielle<\/em><br data-start=\"677\" data-end=\"680\" \/><a class=\"decorated-link\" href=\"https:\/\/oecd.ai\/en\/ai-principles\" target=\"_new\" rel=\"noopener\" data-start=\"680\" data-end=\"748\">https:\/\/oecd.ai\/en\/ai-principles<\/a><\/p><p data-start=\"752\" data-end=\"950\"><strong data-start=\"752\" data-end=\"810\">R\u00e8glement g\u00e9n\u00e9ral sur la protection des donn\u00e9es (RGPD)<\/strong> \u2013 <em data-start=\"813\" data-end=\"851\">Texte officiel de l\u2019Union europ\u00e9enne<\/em><br data-start=\"851\" data-end=\"854\" \/><a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"854\" data-end=\"948\">https:\/\/eur-lex.europa.eu\/eli\/reg\/2016\/679\/oj<\/a><\/p><p data-start=\"952\" data-end=\"1207\"><strong data-start=\"952\" data-end=\"976\">Kate Crawford (2021)<\/strong> \u2013 <em data-start=\"979\" data-end=\"1061\">Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence<\/em>, Yale University Press<br data-start=\"1084\" data-end=\"1087\" \/><a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"1087\" data-end=\"1205\">https:\/\/yalebooks.yale.edu\/book\/9780300209570\/atlas-of-ai<\/a><\/p><p data-start=\"1209\" data-end=\"1396\"><strong data-start=\"1209\" data-end=\"1254\">Catherine D\u2019Ignazio &amp; Lauren Klein (2020)<\/strong> \u2013 <em data-start=\"1257\" data-end=\"1272\">Data Feminism<\/em>, MIT Press<br data-start=\"1283\" data-end=\"1286\" \/><a class=\"decorated-link\" href=\"https:\/\/mitpress.mit.edu\/9780262044004\/data-feminism\" target=\"_new\" rel=\"noopener\" data-start=\"1286\" data-end=\"1394\">https:\/\/mitpress.mit.edu\/9780262044004\/data-feminism<\/a><\/p><p data-start=\"1398\" data-end=\"1660\"><strong data-start=\"1398\" data-end=\"1419\">ProPublica (2016)<\/strong> \u2013 <em data-start=\"1422\" data-end=\"1477\">Machine Bias: Risk Assessments in Criminal Sentencing<\/em><br data-start=\"1477\" data-end=\"1480\" \/><a class=\"decorated-link\" href=\"https:\/\/www.propublica.org\/article\/machine-bias-risk-assessments-in-criminal-sentencing?utm_source=chatgpt.com\" target=\"_new\" rel=\"noopener\" data-start=\"1480\" data-end=\"1658\">https:\/\/www.propublica.org\/article\/machine-bias-risk-assessments-in-criminal-sentencing<\/a><\/p><p data-start=\"1662\" data-end=\"1854\"><strong data-start=\"1662\" data-end=\"1680\">Reuters (2018)<\/strong> \u2013 <em data-start=\"1683\" data-end=\"1755\">Amazon scraps secret AI recruiting tool that showed bias against women<\/em><br data-start=\"1755\" data-end=\"1758\" \/><a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"1758\" data-end=\"1852\">https:\/\/www.reuters.com\/article\/idUSKCN1MK0AG<\/a><\/p><p data-start=\"1856\" data-end=\"2199\"><strong data-start=\"1856\" data-end=\"1876\">Bloomberg (2019)<\/strong> \u2013 <em data-start=\"1879\" data-end=\"1950\">Apple Card Algorithm Doubts Linger as Goldman Responds to Bias Claims<\/em><br data-start=\"1950\" data-end=\"1953\" \/><a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"1953\" data-end=\"2197\">https:\/\/www.bloomberg.com\/news\/articles\/2019-11-10\/apple-card-algorithm-doubts-linger-as-goldman-responds-to-bias-claims<\/a><\/p><p data-start=\"2201\" data-end=\"2371\"><strong data-start=\"2201\" data-end=\"2225\">MIT Media Lab (2018)<\/strong> \u2013 <em data-start=\"2228\" data-end=\"2316\">Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification<\/em><br data-start=\"2316\" data-end=\"2319\" \/><a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"2319\" data-end=\"2369\">http:\/\/gendershades.org<\/a><\/p><p data-start=\"2373\" data-end=\"2570\"><strong data-start=\"2373\" data-end=\"2390\">Nature (2020)<\/strong> \u2013 <em data-start=\"2393\" data-end=\"2463\">International evaluation of an AI system for breast cancer screening<\/em><br data-start=\"2463\" data-end=\"2466\" \/><a class=\"decorated-link\" href=\"https:\/\/www.nature.com\/articles\/s41586-020-2973-6\" target=\"_new\" rel=\"noopener\" data-start=\"2466\" data-end=\"2568\">https:\/\/www.nature.com\/articles\/s41586-020-2973-6<\/a><\/p><p data-start=\"2572\" data-end=\"2702\"><strong data-start=\"2572\" data-end=\"2597\">Decode Project (2019)<\/strong> \u2013 <em data-start=\"2600\" data-end=\"2645\">Decentralised Citizen Owned Data Ecosystems<\/em><br data-start=\"2645\" data-end=\"2648\" \/><a class=\"decorated-link\" href=\"https:\/\/decodeproject.eu\" target=\"_new\" rel=\"noopener\" data-start=\"2648\" data-end=\"2700\">https:\/\/decodeproject.eu<\/a><\/p><p data-start=\"2704\" data-end=\"2958\"><strong data-start=\"2704\" data-end=\"2719\">CNIL (2021)<\/strong> \u2013 <em data-start=\"2722\" data-end=\"2785\">Algorithmes : comment renforcer la transparence et la loyaut\u00e9<\/em><br data-start=\"2785\" data-end=\"2788\" \/><a class=\"decorated-link cursor-pointer\" target=\"_new\" rel=\"noopener\" data-start=\"2788\" data-end=\"2956\">https:\/\/www.cnil.fr\/fr\/algorithmes-comment-renforcer-la-transparence-et-la-loyaute<\/a><\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<div class=\"elementor-element elementor-element-4289e28 elementor-widget elementor-widget-text-editor\" data-id=\"4289e28\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>#HumanTech #Sobri\u00e9t\u00e9Num\u00e9rique #\u00c9thiqueNum\u00e9rique #IntelligenceAugment\u00e9e #CroissanceResponsable<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-d7faccf elementor-section-boxed elementor-section-height-default elementor-section-height-default\" data-id=\"d7faccf\" data-element_type=\"section\" data-e-type=\"section\" data-settings=\"{&quot;background_background&quot;:&quot;classic&quot;}\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-b6a9359\" data-id=\"b6a9359\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-7878ee3 elementor-widget elementor-widget-post-navigation\" data-id=\"7878ee3\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"post-navigation.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t \t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-96ee5e7 elementor-section-full_width elementor-section-height-default elementor-section-height-default\" data-id=\"96ee5e7\" data-element_type=\"section\" data-e-type=\"section\" data-settings=\"{&quot;background_background&quot;:&quot;classic&quot;}\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-d1fca4a\" data-id=\"d1fca4a\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-8cfcdd9 elementor-widget elementor-widget-posts\" data-id=\"8cfcdd9\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"posts.cards\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t \t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<\/div>\n\t\t","protected":false},"excerpt":{"rendered":"<p>On parle beaucoup d\u2019intelligence artificielle, mais derri\u00e8re les algorithmes, il y a l\u2019humain. La technologie n\u2019est jamais neutre, elle refl\u00e8te nos choix et nos angles morts. La sobri\u00e9t\u00e9 num\u00e9rique invite \u00e0 ralentir, \u00e0 privil\u00e9gier la valeur d\u2019usage plut\u00f4t que la d\u00e9mesure. Les biais algorithmiques ne sont pas des erreurs techniques mais les miroirs de nos in\u00e9galit\u00e9s. L\u2019intelligence augment\u00e9e redonne sa place \u00e0 l\u2019humain, partenaire de la machine plut\u00f4t que rival. Reprendre la main sur la donn\u00e9e, c\u2019est faire du num\u00e9rique un outil de conscience et non de puissance.<\/p>\n","protected":false},"author":1,"featured_media":3729,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"zakra_general_container_width":0,"zakra_general_content_width":0,"zakra_general_sidebar_width":0,"zakra_sticky_header":"customizer","zakra_header_main_area":true,"zakra_site_logo_width":0,"zakra_header_top_enabled":"customizer","zakra_header_top_style":"customizer","zakra_primary_menu_item_style":"customizer","zakra_page_header_text_color":"","zakra_page_header_layout":"customizer","zakra_page_title_bg":"","zakra_footer_widgets_bg_image":0,"zakra_page_title_bg_repeat":"customizer","zakra_page_title_bg_position":"customizer","zakra_page_title_bg_size":"customizer","zakra_page_title_bg_attachment":"customizer","zakra_breadcrumbs_enabled":"customizer","zakra_breadcrumbs_text_color":"","zakra_breadcrumbs_separator_color":"","zakra_breadcrumbs_link_color":"","zakra_breadcrumbs_link_hover_color":"","zakra_page_title_bg_image":0,"zakra_footer_widgets_enabled":"customizer","zakra_footer_column_layout_1_style":"customizer","zakra_footer_widgets_bg":"","zakra_footer_widgets_bg_repeat":"customizer","zakra_footer_widgets_bg_position":"customizer","zakra_footer_widgets_bg_size":"customizer","zakra_footer_widgets_bg_attachment":"customizer","zakra_footer_bar_enabled":"customizer","zakra_footer_bar_style":"customizer","zakra_page_container_layout":"customizer","zakra_page_sidebar_layout":"customizer","zakra_remove_content_margin":false,"zakra_sidebar":"customizer","zakra_transparent_header":"customizer","zakra_logo":0,"zakra_main_header_style":"default","zakra_menu_item_color":"","zakra_menu_item_hover_color":"","zakra_menu_item_active_color":"","zakra_menu_active_style":"","zakra_page_header":true,"om_disable_all_campaigns":false,"_uf_show_specific_survey":0,"_uf_disable_surveys":false,"footnotes":""},"categories":[41,38,40,37,35,39],"tags":[],"class_list":["post-3688","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ia-ethique","category-leadership","category-numerique-responsable","category-strategie","category-tech-inclusive","category-transformation-digitale"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/posts\/3688","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/comments?post=3688"}],"version-history":[{"count":48,"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/posts\/3688\/revisions"}],"predecessor-version":[{"id":3941,"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/posts\/3688\/revisions\/3941"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/media\/3729"}],"wp:attachment":[{"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/media?parent=3688"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/categories?post=3688"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/taniagombert.com\/index.php\/wp-json\/wp\/v2\/tags?post=3688"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}