Artwork

Kandungan disediakan oleh Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. Semua kandungan podcast termasuk episod, grafik dan perihalan podcast dimuat naik dan disediakan terus oleh Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes atau rakan kongsi platform podcast mereka. Jika anda percaya seseorang menggunakan karya berhak cipta anda tanpa kebenaran anda, anda boleh mengikuti proses yang digariskan di sini https://ms.player.fm/legal.
Player FM - Aplikasi Podcast
Pergi ke luar talian dengan aplikasi Player FM !

Pourquoi l'alignement de l'IA devient un sujet crucial ?

3:22
 
Kongsi
 

Manage episode 501025292 series 3383386
Kandungan disediakan oleh Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. Semua kandungan podcast termasuk episod, grafik dan perihalan podcast dimuat naik dan disediakan terus oleh Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes atau rakan kongsi platform podcast mereka. Jika anda percaya seseorang menggunakan karya berhak cipta anda tanpa kebenaran anda, anda boleh mengikuti proses yang digariskan di sini https://ms.player.fm/legal.

C'est un concept qui va nécessairement gagner en popularité dans les mois qui viennent.

L’alignement des intelligences artificielles, en clair, tente de trouver comment faire en sorte que des systèmes d'IA très puissants restent utiles, sûrs, et surtout fidèles aux valeurs de concepteurs et des utilisateurs.

Pourquoi l'alignement est crucial

Et tout d'abord je vous explique pourquoi c’est crucial. Aligner une IA, c’est lui apprendre à poursuivre nos objectifs humains, et pas seulement l’objectif technique que ses concepteurs ont codé.

Et c'est facile à dire, mais bien moins facile à faire mentionne IBM dans un document explicatif, parce que nous avons tendance à prêter aux modèles d'IA des intentions humaines. Cette tendance se nomme l’anthropomorphisme.

Pourtant, une IA n’a ni morale ni motivations. Le but d'une IA c'est d'optimiser le résultat d'une consigne, aussi nommé prompt.

Et si la consigne est trop étroite, et bien l'IA peut “réussir” sa mission d’une manière qui nous échappe complètement.

Et ce comportement est désormais bien documenté. Et il a un nom, celui de “détournement de la récompense” observé dans les tâches d'apprentissage par renforcement. D’où l’importance d’un alignement pensé dès la conception, surtout quand l’IA touche des domaines sensibles comme la santé, la finance ou les transports autonomes.

Robustesse, Interopérabilité, Contrôlabilité et Éthique

Alors quels sont les principes que les concepteurs des IA doivent garder en tête ? On peut les résumer par un acronyme, nommé RICE, et qui signifie Robustesse, Interopérabilité, Contrôlabilité et Éthique.

  • La robustesse signifie que l’IA doit rester fiable, même dans des situations imprévues ou face à des attaques.

  • L'interopérabilité veut dire que l'on doit pouvoir expliquer les décisions de l'IA.

  • Dans le même esprit, la contrôlabilité signifie que l’humain doit pouvoir reprendre la main, arrêter, corriger, orienter.

  • Enfin, je vais prendre un exemple pour définir l'éthique. Un moteur de recommandation sur Internet ne devrait pas favoriser la désinformation juste parce qu’elle génère de l’engagement.

Comment faire de l'alignement ?

Alors, et c'est le troisième point, comment on s’y prend concrètement pour faire de l'alignement, et où est ce que ça coince.

Côté méthodes, les spécialistes l’apprentissage par renforcement à partir de retours humains. Cette méthode porte un nom, le RLHF pour Reinforcement learning from human feedback.

Les données synthétiques sont aussi utilisées pour montrer aux IA ce qu'ils doivent éviter. Mais là aussi, les valeurs humaines censées corriger les IA sont plurielles et évoluent.

Bref, le fameux “problème de l’alignement” reste ouvert.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

  continue reading

438 episod

Artwork
iconKongsi
 
Manage episode 501025292 series 3383386
Kandungan disediakan oleh Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes. Semua kandungan podcast termasuk episod, grafik dan perihalan podcast dimuat naik dan disediakan terus oleh Guillaume Serries and ZD Tech : tout comprendre en moins de 3 minutes atau rakan kongsi platform podcast mereka. Jika anda percaya seseorang menggunakan karya berhak cipta anda tanpa kebenaran anda, anda boleh mengikuti proses yang digariskan di sini https://ms.player.fm/legal.

C'est un concept qui va nécessairement gagner en popularité dans les mois qui viennent.

L’alignement des intelligences artificielles, en clair, tente de trouver comment faire en sorte que des systèmes d'IA très puissants restent utiles, sûrs, et surtout fidèles aux valeurs de concepteurs et des utilisateurs.

Pourquoi l'alignement est crucial

Et tout d'abord je vous explique pourquoi c’est crucial. Aligner une IA, c’est lui apprendre à poursuivre nos objectifs humains, et pas seulement l’objectif technique que ses concepteurs ont codé.

Et c'est facile à dire, mais bien moins facile à faire mentionne IBM dans un document explicatif, parce que nous avons tendance à prêter aux modèles d'IA des intentions humaines. Cette tendance se nomme l’anthropomorphisme.

Pourtant, une IA n’a ni morale ni motivations. Le but d'une IA c'est d'optimiser le résultat d'une consigne, aussi nommé prompt.

Et si la consigne est trop étroite, et bien l'IA peut “réussir” sa mission d’une manière qui nous échappe complètement.

Et ce comportement est désormais bien documenté. Et il a un nom, celui de “détournement de la récompense” observé dans les tâches d'apprentissage par renforcement. D’où l’importance d’un alignement pensé dès la conception, surtout quand l’IA touche des domaines sensibles comme la santé, la finance ou les transports autonomes.

Robustesse, Interopérabilité, Contrôlabilité et Éthique

Alors quels sont les principes que les concepteurs des IA doivent garder en tête ? On peut les résumer par un acronyme, nommé RICE, et qui signifie Robustesse, Interopérabilité, Contrôlabilité et Éthique.

  • La robustesse signifie que l’IA doit rester fiable, même dans des situations imprévues ou face à des attaques.

  • L'interopérabilité veut dire que l'on doit pouvoir expliquer les décisions de l'IA.

  • Dans le même esprit, la contrôlabilité signifie que l’humain doit pouvoir reprendre la main, arrêter, corriger, orienter.

  • Enfin, je vais prendre un exemple pour définir l'éthique. Un moteur de recommandation sur Internet ne devrait pas favoriser la désinformation juste parce qu’elle génère de l’engagement.

Comment faire de l'alignement ?

Alors, et c'est le troisième point, comment on s’y prend concrètement pour faire de l'alignement, et où est ce que ça coince.

Côté méthodes, les spécialistes l’apprentissage par renforcement à partir de retours humains. Cette méthode porte un nom, le RLHF pour Reinforcement learning from human feedback.

Les données synthétiques sont aussi utilisées pour montrer aux IA ce qu'ils doivent éviter. Mais là aussi, les valeurs humaines censées corriger les IA sont plurielles et évoluent.

Bref, le fameux “problème de l’alignement” reste ouvert.

Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

  continue reading

438 episod

Tous les épisodes

×
 
Loading …

Selamat datang ke Player FM

Player FM mengimbas laman-laman web bagi podcast berkualiti tinggi untuk anda nikmati sekarang. Ia merupakan aplikasi podcast terbaik dan berfungsi untuk Android, iPhone, dan web. Daftar untuk melaraskan langganan merentasi peranti.

 

Panduan Rujukan Pantas

Podcast Teratas
Dengar rancangan ini semasa anda meneroka
Main