L'avènement de l’ère de l'intelligence artificielle (IA), nous confronte à une question cruciale : comment mieux garantir que cette technologie évolue dans une direction éthique et responsable ? Aussi incroyables ses avantages sont-ils, sans supervision adéquate, les risques sont nombreux pour la société, en termes de perte d'emplois, de violation de la vie privée ou encore de discriminations fondées sur les origines ou le sexe.

Récemment, le départ de l'équipe éthique d'OpenAI, chargée de la sécurité d'une potentielle super-intelligence artificielle, a suscité des inquiétudes quant à l'engagement des entreprises envers une IA responsable. Au niveau européen, l’IA Act a posé récemment un premier jalon mais les effets concrets ne seront sûrement pas perceptibles avant 2026, et la réglementation pourrait très vite être dépassée par les évolutions rapides des champs applicatifs. Or, une supervision volontaire est d’ores et déjà possible. Et plus que souhaitable.

Premièrement, la transparence est clef. Les algorithmes utilisés dans les systèmes d'IA doivent être compréhensibles et explicables. Trop souvent, les décisions qu’ils opèrent restent mystérieuses, ce qui crée un fossé entre les concepteurs de l'IA et le grand public. En rendant les processus décisionnels des algorithmes transparents, nous pouvons accroître la confiance des utilisateurs. Un secteur comme l’assurance recherche par exemple la transparence dans ses critères de décisions vis-à-vis de sa clientèle. L’explicabilité des modèles représente aussi une défense vis-à-vis des risques d’usurpation d’un modèle en cas de cyberattaque puisqu’elle aide à détecter plus rapidement les comportements déviants.

Deuxièmement, la diversité et l'inclusivité doivent être intégrées dès la conception des systèmes d'IA. Trop souvent, les biais culturels et sociaux se retrouvent amplifiés par le choix des données utilisées pour entraîner les algorithmes. Dans l’assurance encore, cela peut générer des risques de discrimination dans le calcul de la prime. En élargissant la diversité des données utilisées pour former les modèles LLM (Large Language Model) comme OpenAI ou Mistral, et en veillant à ce qu'elles représentent fidèlement la pluralité des perspectives et des expériences humaines, nous pouvons contribuer à réduire les distorsions et les préjugés dans les résultats générés.

Enfin, l'éducation et la pédagogie sont essentielles pour créer une culture de responsabilité partagée autour de l'IA. Les utilisateurs finaux doivent être informés des implications éthiques de cette technologie et être encouragés à participer au dialogue sur la manière de la guider de manière responsable. De même, les professionnels de l'IA, en particulier les développeurs, doivent être formés à ces questions et dotés des compétences nécessaires pour concevoir et mettre en œuvre des systèmes d'IA qui tiennent compte des préoccupations morales et sociales.

En pratique, de plus en plus de sociétés éditrices de logiciels intégrant de l’IA se dotent désormais de comités éthiques qui ont pour mission de garantir l’adéquation des futurs développements avec des normes éthiques strictes. Ces initiatives sont cruciales, pour assurer que chaque avancée technologique n'est pas guidée par des seules considérations commerciales ou techniques.