Une chose est sure, l’intelligence artificielle se développe rapidement, favorisée par l’émergence de nouveaux systèmes comme le big data et l’apprentissage approfondi qui ont révolutionné la façon de vivre de millions de personnes ces dernières années. Aujourd’hui, on fait appel à l’IA dans de nombreux domaines, en effet, elle intervient pour choisir les news qu’on va voir, déterminer les profils de personnes à qui accorder des crédits et même déterminer les tâches qu’on doit réaliser dans certains cas. Bien que l’IA a tous ces avantages et bien d’autres (elle peut scanner des montagnes de données pour détecter le cancer et automatiser le pilotage de véhicules pour éviter des accidents), beaucoup de personnes, notamment de la Maison-Blanche et de l’Open AI d’Elon Musk ont averti maintes fois que ce développement rapide de l’IA pourrait mal tourner. Pour cette raison , il est primordial que la recherche sur l’IA et son développement soit encadré par une grande variété de disciplines et de voies, qui inclut non seulement les ingénieurs et les firmes, mais aussi les experts en sciences sociales, les philosophes, les économistes, les avocats, etc.
Cette initiative va mettre en place un conseil de direction qui réunit les participants et encadrer la distribution de prix et faciliter d’autres activités dont l’intérêt est de mettre en liaison l’informatique aux sciences sociales et humaines. « Il y a une urgence à s’assurer que les avantages de l’IA soient utiles à la société et limitent son mal », a dit Reid Hoffman, fondateur de LinkedIn. « La prise de décision de l’IA peut influencer beaucoup d’aspects de notre monde - éducation, transport, la santé, la justice et l’économie - cependant, les données et le code qui sont derrière ces décisions peuvent être largement invisibles. »
Les systèmes d’IA recourent actuellement à l’analyse de larges quantités de données, qui sont préalablement préparées et catégorisées par des humains. De ce fait, personne ne garantit qu’il n’y ait pas de préjugés. « L’un des enjeux majeurs est de savoir comment les machines que nous entrainons ne vont pas perpétuer et amplifier davantage les mêmes préjugés portés par les humains et qui tourmentent la société », a dit Joi Ito, directeur du Media Lab à MIT.
Le fonds cherche à imprégner l’intérêt public dans l’avancement de l’IA en diversifiant les discussions et les projets qui adressent les impacts de l’IA sur les humains. Voici en gros quelques problèmes que les fondateurs du fonds cherchent à adresser :
*La complexité de la communication : Comment mieux communiquer, à travers les mots et les processus, les nuances d’un champ complexe comme l’IA ?
*Design d’éthique : comment concevoir et bâtir des technologies qui prennent en compte des cadres d’éthique et des valeurs morales au centre de l’innovation technologique ?
*L’avancement d’une IA responsable et juste : Quels sont les mécanismes de contrôle dont on a besoin pour minimiser des préjudices potentiels sur la société et tirer le maximum de ses avantages ?
*L’innovation dans l’intérêt public : Comment maintenir la capacité des ingénieurs et les entrepreneurs à innover, créer et profiter, tout en s’assurant que la société est informée et que le travail intègre des perspectives d’intérêt général ?
*Comment élargir la discipline pour s’assurer qu’un large éventail d'acteurs est impliqué dans la création d’outils et l’analyse de l’impact social ?
*Design d’éthique : comment concevoir et bâtir des technologies qui prennent en compte des cadres d’éthique et des valeurs morales au centre de l’innovation technologique ?
*L’avancement d’une IA responsable et juste : Quels sont les mécanismes de contrôle dont on a besoin pour minimiser des préjudices potentiels sur la société et tirer le maximum de ses avantages ?
*L’innovation dans l’intérêt public : Comment maintenir la capacité des ingénieurs et les entrepreneurs à innover, créer et profiter, tout en s’assurant que la société est informée et que le travail intègre des perspectives d’intérêt général ?
*Comment élargir la discipline pour s’assurer qu’un large éventail d'acteurs est impliqué dans la création d’outils et l’analyse de l’impact social ?
Le fonds cherchera donc à déterminer à quel point les systèmes d’intelligence artificielle seront socialement responsables. Le groupe cherche également à explorer les façons d’impliquer le public dans la conception de ces systèmes et le sensibiliser à propos des enjeux dans l’avenir.
Source : Knight Foundation
Et vous ?
Qu'en pensez-vous ?
Voir aussi :
Forum Intelligence artificielle