L’in­tel­li­gence arti­fi­ci­elle : de nouvel­les règles du jeu pour la philanthropie

Elle facilite les processus, augmente l'accessibilité et place les questions essentielles au centre : selon la première conclusion intermédiaire de notre Learning Journey, l'intelligence artificielle (IA) modifie considérablement la philanthropie. Une conférence scientifique organisée à Genève souligne également cette conclusion.

Sept fonda­teurs, sept orga­ni­sa­ti­ons à but non lucra­tif et une experte ont entamé en décembre le live track de notre premier Lear­ning Jour­ney sur l’IA. Fait inté­res­sant : les orga­ni­sa­ti­ons à but non lucra­tif utili­sent déjà la nouvelle tech­no­lo­gie pour une demande sur trois, comme nous le savons grâce à l’en­quête du baromètre des fonda­ti­ons. Les orga­ni­sa­ti­ons de soutien sont plus scep­ti­ques. Elles espè­rent surtout obte­nir de l’aide pour l’éva­lua­tion des deman­des préal­ables et l’ana­lyse des reportings. Et ce pour une bonne raison, car l’IA se charge de la “lecture croi­sée” de manière bien plus fiable qu’un être humain.

Des appli­ca­ti­ons parfaites

L’ ”intel­li­gence arti­fi­ci­elle” fait réfé­rence à la capa­cité des machi­nes à inté­grer l’in­tel­li­gence humaine dans l’exé­cu­tion des tâches. Depuis que les modè­les de trans­for­ma­tion (Large Language Models, LLM) comme ChatGPT ont énor­mé­ment amélioré leurs perfor­man­ces, ils créent effec­ti­ve­ment une nouvelle situa­tion de départ pour de nombreux secteurs, dont la philanthropie.

Car les nouveaux assistants sont des maîtres du langage. En les alimen­tant de manière ciblée avec des infor­ma­ti­ons sur son propre projet et sur l’or­ga­ni­sa­tion de soutien à solli­ci­ter, on obti­ent en quel­ques clics une demande parfaite. Les obsta­cles lingu­is­ti­ques sont ainsi élimi­nés, l’ef­fort est réduit et le résul­tat est plus compré­hen­si­ble et plus lisible.

L’ac­cent est ainsi mis sur la qualité du projet, sa dura­bi­lité, les ressour­ces telles qu’une équipe, un finance­ment solide ou un bon ancrage dans l’éco­sys­tème existant. Mais une “demande parfaite” crée aussi de nouveaux défis. Elle n’est et ne reste qu’un “proxy” compa­ra­ble à une candi­da­ture à un emploi : la preuve de la quali­fi­ca­tion n’est appor­tée qu’au quoti­dien. Pour le proces­sus de demande, cela signi­fie : L’en­tre­tien person­nel avec un chef de projet potentiel ou les infor­ma­ti­ons de fond sur l’or­ga­ni­sa­tion exécu­tante gagn­ent en importance. Il en va de même pour l’éch­ange et la compa­rai­son avec d’au­t­res fonda­ti­ons sollicitées.

Tout ce qui est tech­ni­quement possi­ble n’est pas forcé­ment judicieux.

L’es­sayer, c’est l’adopter

Dans le cadre du Jour­ney, nous déve­l­o­p­pons des offres concrè­tes (voir page ci-contre). En outre, suite aux discus­sions, nous avons mis à jour notre infra­struc­ture tech­ni­que en colla­bo­ra­tion avec PeakPrivacy.ch. Que vous soyez un cher­cheur ou un orga­nisme à but non lucra­tif, vous pouvez dès à présent expé­ri­men­ter vous-même la puis­sance de l’IA. Et ce, dans un envi­ron­ne­ment sûr. Important : les utili­sa­teurs déci­dent eux-mêmes si leurs données doivent être trai­tées ou non par l’in­tel­li­gence artificielle.

Car tout ce qui est tech­ni­quement possi­ble n’a pas forcé­ment de sens. Outre les ques­ti­ons éthi­ques et écolo­gi­ques (l’IA consomme beau­coup d’éner­gie), il faut surtout garder à l’esprit les risques de cette tech­no­lo­gie promet­teuse. La protec­tion des données person­nel­les prescrite par la loi, par exemple, est exige­ante, tout comme la protec­tion des infor­ma­ti­ons sensi­bles et importan­tes pour la concur­rence : Il s’agit notam­ment des dossiers de projet et des deman­des, mais aussi de leur évalua­tion ou de la justi­fi­ca­tion d’un refus. Car la force de l’in­tel­li­gence arti­fi­ci­elle est aussi sa faiblesse : elle ne cesse d’app­rendre. En d’au­t­res termes, chaque ques­tion que nous posons rend les répon­ses futures poten­ti­el­le­ment plus précises.

La tenta­tion est donc grande d’uti­li­ser les données des utili­sa­teurs de manière ciblée pour amélio­rer les modè­les. Cela ne peut être exclu que dans la version payante de ChatGPT — et même dans ce cas, la confi­ance est bonne, le contrôle est meil­leur. C’est pour­quoi nous ouvrons un nouveau chapitre à la Fonda­tion Suisse : En tant que premier presta­taire dans le domaine de la phil­an­thro­pie, nous héber­ge­ons nous-mêmes l’in­tel­li­gence arti­fi­ci­elle afin de garan­tir que l’uti­li­sa­tion de la tech­no­lo­gie ne laisse aucune trace dans les modè­les utilisés.

Accom­pa­gne­ment scientifique

Elle visait à sensi­bi­li­ser au rôle de la phil­an­thro­pie dans la promo­tion d’une appro­che éthi­que et inclu­sive de l’in­tel­li­gence arti­fi­ci­elle, sous les deux angles suivants : “l’IA pour la phil­an­thro­pie” et “l’IA rendue possi­ble par la philanthropie”.

Dans les deux domaines, il y a beau­coup à faire pour les fonda­ti­ons inté­res­sées, qui ne sont toute­fois pas encore très nombreu­ses. La socio­lo­gue Patri­cia Snell Herzog d’In­dia­na­po­lis a trouvé envi­ron 300 orga­ni­sa­ti­ons dans le monde : Il y a des appli­ca­ti­ons promet­teu­ses dans le domaine du chan­ge­ment clima­tique, mais en géné­ral, on est encore loin d’une bonne pratique. Aline Kratz-Ulmer, experte en matière de fonda­ti­ons à Zurich, estime elle aussi que le chemin est encore long. Car pour les fonda­ti­ons dona­tri­ces suis­ses, le grand pas consiste d’abord à passer d’une gestion analo­gi­que à une gestion numé­ri­que des deman­des et des subventions.

“Agency, not Intelligence”

Mais la tech­no­lo­gie est-elle la compé­tence prin­ci­pale des fonda­ti­ons ? Nelson Amaya Durán de l’OCDE est convaincu que non, et il ajoute : “Phil­an­thopy runs on people and ideas — not on tech­no­logy”. Et pour­tant, la tech­no­lo­gie prend de plus en plus d’im­portance, pas seule­ment mais aussi dans la philanthropie.

Luciano Floridi, profes­seur à Yale et fonda­teur du Digi­tal Ethics Center, est encore plus précis. L’in­tel­li­gence arti­fi­ci­elle ne fonc­tionne que si nous adap­tons large­ment nos systè­mes à elle. Un exemple : il est certes envi­sa­geable que nous nous dépla­ci­ons un jour exclu­si­ve­ment avec des véhi­cu­les entiè­re­ment auto­no­mes. Mais pour cela, il faudrait d’abord recon­struire toutes les routes, opti­mi­sées pour l’IA.

Mais Floridi va encore plus loin et remet fonda­men­ta­le­ment en ques­tion “l’in­tel­li­gence” dans l’IA. Il inter­prète libre­ment l’acro­nyme “AI” comme “Agency, not Intel­li­gence”. Pour lui, l’IA crée une capa­cité d’ac­tion éten­due d’un système tech­ni­que. Elle est, selon lui, une tech­no­lo­gie très perfor­mante et auto­nome au sens large — mais pas une forme d’intelligence.

Plai­doyer pour la coopération

Luciano Floridi réserve l’in­tel­li­gence à l’homme. Et en parti­cu­lier aux hommes dans la phil­an­thro­pie. Car, selon Floridi, celle-ci est conçue pour la colla­bo­ra­tion et la coopé­ra­tion, et c’est là que réside sa force : comme elle se situe en dehors de la concur­rence, elle peut déployer un maxi­mum d’ef­fets grâce à l’union des acteurs. En d’au­t­res termes : bien connec­tée, elle a plus d’impact.

L’IA, privée de son intel­li­gence et désen­chan­tée, est-elle donc un élément tech­no­lo­gi­que tout à fait normal dans notre quoti­dien numé­ri­que ? Sebas­tian Hallens­le­ben est l’un de ceux qui doivent le savoir. Car sa mission consiste actu­el­le­ment à déve­lo­p­per les normes néces­saires à la mise en œuvre de la nouvelle légis­la­tion euro­pé­enne sur l’IA. Le défi est de nature fonda­men­tale, expli­que Hallens­le­bel, et consiste à garan­tir l’au­then­ti­cité et l’iden­tité dans l’espace numé­ri­que. Et Hallens­le­ben de mettre en garde : le cadre régle­men­taire est certes important, mais pas suffi­sant pour limi­ter les dommages potentiels de l’IA. Et ceux-ci, comme le montre de manière impres­si­on­nante Fran­ce­sca Bosco de l’In­sti­tut Cyber­peace de Genève, sont multi­ples et leur potentiel de dommages ne doit pas être sous-estimé.

Une intel­li­gence arti­fi­ci­elle éthi­que — et beau­coup de pragmatisme

C’est là que la phil­an­thro­pie entre en jeu. Elle peut promou­voir de manière décisive une utili­sa­tion éthi­que — et donc en premier lieu responsable — de l’IA. De nombreux spécia­lis­tes considè­rent qu’une telle bonne pratique est le moyen le plus effi­cace de lutter contre une utili­sa­tion abusive ou dange­reuse des nouvel­les possibilités.

Selon Luciano Floridi, ce n’est pas seule­ment l’abus qui est contraire à l’éthi­que, mais aussi l’uti­li­sa­tion exces­sive ou gaspil­lée de l’IA, tout comme la non-utili­sa­tion de l’IA. Ainsi, il est à la fois contraire à l’éthi­que et antié­co­no­mi­que de ne pas lais­ser la société civile ou les mino­ri­tés socia­les parti­ci­per aux nouvel­les possi­bi­li­tés (parmi les mino­ri­tés, il compte égale­ment les jeunes ou les femmes, qui ne sont géné­ra­le­ment pas au centre des tendan­ces tech­no­lo­gi­ques). Les fonda­ti­ons pour­rai­ent veil­ler à ce que l’IA soit dispo­nible dans ces domaines comme dans d’au­t­res, par exemple en rédui­sant les coûts d’op­por­tu­nité ou en contri­buant aux coûts de développement.

Le prag­ma­tisme est donc de mise. Nelson Amaya Durán s’en féli­cite égale­ment. La phil­an­thro­pie devrait géné­ra­le­ment descendre de ses grands chevaux. Elle fait tradi­ti­onnel­le­ment ce que l’éco­no­mie privée ignore et ce que les auto­ri­tés n’ar­ri­vent pas à faire assez vite — ni plus ni moins. Et c’est en fait bien et juste ainsi. La McGo­vern Foun­da­tion, basée à Chicago, est un exemple d’une telle fonda­tion — proba­blem­ent la seule fonda­tion au monde qui, selon son objec­tif, se concentre exclu­si­ve­ment sur l’IA.

Mais cet exemple montre justem­ent que le chemin est encore long. La fonda­tion vient de publier sa première IA orien­tée vers la société civile, un assistant pour le jour­na­lisme d’in­ves­ti­ga­tion. Mais pour que l’in­tel­li­gence arti­fi­ci­elle devi­enne un champ d’ap­pli­ca­tion tangi­ble pour les fonda­ti­ons, il faut encore beau­coup plus de proto­ty­pes et d’étu­des de cas de ce type, qui rendent tangi­ble une valeur ajou­tée pratique des nouvel­les possi­bi­li­tés. C’est précis­é­ment l’ob­jec­tif de l’AI Lear­ning Jour­ney (ainsi que de deux boot­camps spéciaux pour les funders et les nonpro­fits).

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

StiftungSchweiz encourage une philanthropie qui atteint plus avec moins de moyens, qui est visible et perceptible par tous, et qui apporte de la joie.

Suivez StiftungSchweiz sur