A fear about AI is currently developing in our society, which is fueled by recent data scandals and privacy threats.
This fear actually results from a bad usage of AI, and not from AI itself.
The same is happening nowadays with AI, which already occured in the past with every scientific progress:
every discovery may either help people or be harmful, depending on who is controlling it and of their motivations.
But Science shouldn't be blamed for that: it is the bad usage of science that should be condemned and fought with all possible means.
Big data and AI are just the same: they are helpful (identifying cancers, helping doctors to recognize
rare diseases, empowering hospitals, modeling the propagation of epidemies, predicting disasters, etc.)
but in wrong hands, they may also serve to track and control us, which is unacceptable.
We, OLKi members, are deeply aware of this risk; we have no interest at all in making money, gaining control or taking power, and we are all motivated to build AI approaches
that are ethical and respectful for citizens. We believe this can only be achieved through a total transparency of researches,
and by thinking at every stage of our work about the consequences of our researches and how they could be used for the good of citizens.
We value sharing, and anonymity, which is the last but strongest bastion of privacy.
We are not omniscient, and that's also why we value open-source AI, for which algorithms can be analyzed by everybody:
whenever you find that we may deviate from these ethical objectives, please do let us know: we want to
listen to your feedback, as we may not always imagine all possible AI threats and opportunities.
Conversely, please do not judge AI researches from the rant of mass media: AI will lead humanity neither to heaven nor to hell;
we have been studying AI since more than 30 years, well before the hype of self-driving cars or privacy scandals.
AI is not the cause of the latters, it is the will of some to control others or make money:
AI is fundamentally a science that studies the capacity of our brain.
@@ -16,27 +16,16 @@ Si cela vous intéresse, envoyez-moi un email ou prévenez-moi sur [Mastodon](ht
# Problématique
Les grandes entreprises américaines ont été les premières à se rendre compte du pouvoir
politique, économique, scientifique et sociétal que procurent les données massives.
Leurs initiatives furent suivies par une prise de conscience d'un nombre restreint de gouvernements, en particulier chinois. Aujourd'hui, une proportion grandissante des citoyens
craint la menace que représente un tel pouvoir.
A mon avis, la sphère politique européenne n'en a par contre toujours pas pris la pleine mesure.
Face aux innombrables scandales récents qui démontrent l'importance des risques encourus,
face aux menaces bien réelles que font peser les gouvernements de certains pays sur leurs citoyens au travers de
l'utilisation de leurs données, il y a urgence à agir, et à tout faire pour protéger le citoyen, en mettant fin aux dérives
issues de l'usage abusif de ce nouveau pouvoir.
Les données sont déjà ici, elles sont présentes partout et les mouvements contestataires isolés ("aucun portable chez moi !")
Les données sont présentes partout et les mouvements contestataires isolés ("aucun portable chez moi !")
ne résoudront rien; il faut changer de modèle.
De nombreuses chartes et manifestes éthiques sur l'usage des données ont ainsi été proposés au cours de ces dernières années,
et je propose d'en faire un recensement partiel et subjectif ci-dessous.
et nous proposons d'en faire un recensement partiel et subjectif ci-dessous.
N'hésitez pas à venir en discuter en m'envoyant un message public sur [Mastodon](https://olkichat.duckdns.org/@admin).
Cette revue n'est pas le seul fruit de mon travail, mais elle résulte d'un travail collectif mené dans le cadre d'un
groupe de travail sur l'éthique du projet OLKi, groupe qui n'a pas encore rédigé de rapport, et ce résumé n'est que ma vision personnelle
d'une partie de ce travail.
je remplacerai évidemment ce texte par le rapport complet du groupe dès que possible.
Cette réflexion est toujours en cours en 2020.
# Revue de l'existant
...
...
@@ -49,6 +38,7 @@ Citons par exemple, du côté des organismes officiels:
* Les rapports du [COERLE INRIA](https://intranet.inria.fr/Actualite/Le-Coerle-au-caeur-des-questions-d-ethique-et-d-integrite-scientifique)
* Le [groupe éthique IA de l'UE](http://europa.eu/rapid/press-release_IP-19-1893_fr.htm) et ses [guidelines](https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai)
* La [déclaration de Montréal pour une IA responsable](https://www.montrealdeclaration-responsibleai.com/the-declaration)
Les associations ne sont pas en reste, avec par exemple:
...
...
@@ -78,7 +68,5 @@ Il faut donc ouvrir également les modèles, avec des licences open-source appro
Bien sûr, tous les citoyens ne réaliseront pas ce contrôle, mais cette possibilité doit rester ouverte, afin que
tous ceux qui en ont la possibilité et l'intérêt, notamment les associations de défense des libertés, puissent réaliser ce contrôle à tout moment.
De telles mesures ne sont à ma connaissance jamais proposées, peut-être parce qu'elles contrecarrent certains business models opaques existants.
Mais face à l'ampleur des menaces, il me semble important au moins d'engager une réflexion indépendante sur ces questions, et c'est ce que nous nous proposons de faire dans OLKi.