Sept fondateurs, sept organisations à but non lucratif et une experte ont entamé en décembre le live track de notre premier Learning Journey sur l’IA. Fait intéressant : les organisations à but non lucratif utilisent déjà la nouvelle technologie pour une demande sur trois, comme nous le savons grâce à l’enquête du baromètre des fondations. Les organisations de soutien sont plus sceptiques. Elles espèrent surtout obtenir de l’aide pour l’évaluation des demandes préalables et l’analyse des reportings. Et ce pour une bonne raison, car l’IA se charge de la “lecture croisée” de manière bien plus fiable qu’un être humain.
Des applications parfaites
L’ ”intelligence artificielle” fait référence à la capacité des machines à intégrer l’intelligence humaine dans l’exécution des tâches. Depuis que les modèles de transformation (Large Language Models, LLM) comme ChatGPT ont énormément amélioré leurs performances, ils créent effectivement une nouvelle situation de départ pour de nombreux secteurs, dont la philanthropie.
Car les nouveaux assistants sont des maîtres du langage. En les alimentant de manière ciblée avec des informations sur son propre projet et sur l’organisation de soutien à solliciter, on obtient en quelques clics une demande parfaite. Les obstacles linguistiques sont ainsi éliminés, l’effort est réduit et le résultat est plus compréhensible et plus lisible.
L’accent est ainsi mis sur la qualité du projet, sa durabilité, les ressources telles qu’une équipe, un financement solide ou un bon ancrage dans l’écosystème existant. Mais une “demande parfaite” crée aussi de nouveaux défis. Elle n’est et ne reste qu’un “proxy” comparable à une candidature à un emploi : la preuve de la qualification n’est apportée qu’au quotidien. Pour le processus de demande, cela signifie : L’entretien personnel avec un chef de projet potentiel ou les informations de fond sur l’organisation exécutante gagnent en importance. Il en va de même pour l’échange et la comparaison avec d’autres fondations sollicitées.
Tout ce qui est techniquement possible n’est pas forcément judicieux.
L’essayer, c’est l’adopter
Dans le cadre du Journey, nous développons des offres concrètes (voir page ci-contre). En outre, suite aux discussions, nous avons mis à jour notre infrastructure technique en collaboration avec PeakPrivacy.ch. Que vous soyez un chercheur ou un organisme à but non lucratif, vous pouvez dès à présent expérimenter vous-même la puissance de l’IA. Et ce, dans un environnement sûr. Important : les utilisateurs décident eux-mêmes si leurs données doivent être traitées ou non par l’intelligence artificielle.
Car tout ce qui est techniquement possible n’a pas forcément de sens. Outre les questions éthiques et écologiques (l’IA consomme beaucoup d’énergie), il faut surtout garder à l’esprit les risques de cette technologie prometteuse. La protection des données personnelles prescrite par la loi, par exemple, est exigeante, tout comme la protection des informations sensibles et importantes pour la concurrence : Il s’agit notamment des dossiers de projet et des demandes, mais aussi de leur évaluation ou de la justification d’un refus. Car la force de l’intelligence artificielle est aussi sa faiblesse : elle ne cesse d’apprendre. En d’autres termes, chaque question que nous posons rend les réponses futures potentiellement plus précises.
La tentation est donc grande d’utiliser les données des utilisateurs de manière ciblée pour améliorer les modèles. Cela ne peut être exclu que dans la version payante de ChatGPT — et même dans ce cas, la confiance est bonne, le contrôle est meilleur. C’est pourquoi nous ouvrons un nouveau chapitre à la Fondation Suisse : En tant que premier prestataire dans le domaine de la philanthropie, nous hébergeons nous-mêmes l’intelligence artificielle afin de garantir que l’utilisation de la technologie ne laisse aucune trace dans les modèles utilisés.
Accompagnement scientifique
Elle visait à sensibiliser au rôle de la philanthropie dans la promotion d’une approche éthique et inclusive de l’intelligence artificielle, sous les deux angles suivants : “l’IA pour la philanthropie” et “l’IA rendue possible par la philanthropie”.
Dans les deux domaines, il y a beaucoup à faire pour les fondations intéressées, qui ne sont toutefois pas encore très nombreuses. La sociologue Patricia Snell Herzog d’Indianapolis a trouvé environ 300 organisations dans le monde : Il y a des applications prometteuses dans le domaine du changement climatique, mais en général, on est encore loin d’une bonne pratique. Aline Kratz-Ulmer, experte en matière de fondations à Zurich, estime elle aussi que le chemin est encore long. Car pour les fondations donatrices suisses, le grand pas consiste d’abord à passer d’une gestion analogique à une gestion numérique des demandes et des subventions.
“Agency, not Intelligence”
Mais la technologie est-elle la compétence principale des fondations ? Nelson Amaya Durán de l’OCDE est convaincu que non, et il ajoute : “Philanthopy runs on people and ideas — not on technology”. Et pourtant, la technologie prend de plus en plus d’importance, pas seulement mais aussi dans la philanthropie.
Luciano Floridi, professeur à Yale et fondateur du Digital Ethics Center, est encore plus précis. L’intelligence artificielle ne fonctionne que si nous adaptons largement nos systèmes à elle. Un exemple : il est certes envisageable que nous nous déplacions un jour exclusivement avec des véhicules entièrement autonomes. Mais pour cela, il faudrait d’abord reconstruire toutes les routes, optimisées pour l’IA.
Mais Floridi va encore plus loin et remet fondamentalement en question “l’intelligence” dans l’IA. Il interprète librement l’acronyme “AI” comme “Agency, not Intelligence”. Pour lui, l’IA crée une capacité d’action étendue d’un système technique. Elle est, selon lui, une technologie très performante et autonome au sens large — mais pas une forme d’intelligence.
Plaidoyer pour la coopération
Luciano Floridi réserve l’intelligence à l’homme. Et en particulier aux hommes dans la philanthropie. Car, selon Floridi, celle-ci est conçue pour la collaboration et la coopération, et c’est là que réside sa force : comme elle se situe en dehors de la concurrence, elle peut déployer un maximum d’effets grâce à l’union des acteurs. En d’autres termes : bien connectée, elle a plus d’impact.
L’IA, privée de son intelligence et désenchantée, est-elle donc un élément technologique tout à fait normal dans notre quotidien numérique ? Sebastian Hallensleben est l’un de ceux qui doivent le savoir. Car sa mission consiste actuellement à développer les normes nécessaires à la mise en œuvre de la nouvelle législation européenne sur l’IA. Le défi est de nature fondamentale, explique Hallenslebel, et consiste à garantir l’authenticité et l’identité dans l’espace numérique. Et Hallensleben de mettre en garde : le cadre réglementaire est certes important, mais pas suffisant pour limiter les dommages potentiels de l’IA. Et ceux-ci, comme le montre de manière impressionnante Francesca Bosco de l’Institut Cyberpeace de Genève, sont multiples et leur potentiel de dommages ne doit pas être sous-estimé.
Une intelligence artificielle éthique — et beaucoup de pragmatisme
C’est là que la philanthropie entre en jeu. Elle peut promouvoir de manière décisive une utilisation éthique — et donc en premier lieu responsable — de l’IA. De nombreux spécialistes considèrent qu’une telle bonne pratique est le moyen le plus efficace de lutter contre une utilisation abusive ou dangereuse des nouvelles possibilités.
Selon Luciano Floridi, ce n’est pas seulement l’abus qui est contraire à l’éthique, mais aussi l’utilisation excessive ou gaspillée de l’IA, tout comme la non-utilisation de l’IA. Ainsi, il est à la fois contraire à l’éthique et antiéconomique de ne pas laisser la société civile ou les minorités sociales participer aux nouvelles possibilités (parmi les minorités, il compte également les jeunes ou les femmes, qui ne sont généralement pas au centre des tendances technologiques). Les fondations pourraient veiller à ce que l’IA soit disponible dans ces domaines comme dans d’autres, par exemple en réduisant les coûts d’opportunité ou en contribuant aux coûts de développement.
Le pragmatisme est donc de mise. Nelson Amaya Durán s’en félicite également. La philanthropie devrait généralement descendre de ses grands chevaux. Elle fait traditionnellement ce que l’économie privée ignore et ce que les autorités n’arrivent pas à faire assez vite — ni plus ni moins. Et c’est en fait bien et juste ainsi. La McGovern Foundation, basée à Chicago, est un exemple d’une telle fondation — probablement la seule fondation au monde qui, selon son objectif, se concentre exclusivement sur l’IA.
Mais cet exemple montre justement que le chemin est encore long. La fondation vient de publier sa première IA orientée vers la société civile, un assistant pour le journalisme d’investigation. Mais pour que l’intelligence artificielle devienne un champ d’application tangible pour les fondations, il faut encore beaucoup plus de prototypes et d’études de cas de ce type, qui rendent tangible une valeur ajoutée pratique des nouvelles possibilités. C’est précisément l’objectif de l’AI Learning Journey (ainsi que de deux bootcamps spéciaux pour les funders et les nonprofits).