Commit 7a65dcaa authored by xtof's avatar xtof

ok

parent 36f2b53b
Pipeline #115601 passed with stage
in 2 seconds
---
title: "Fear of AI"
date: 2019-01-01T12:01:00+06:00
description : "The dark side of AI"
type: post
image:
author: Christophe Cerisara
tags: ["AI", "society"]
---
A fear about AI is currently developing in our society, which is fueled by recent data scandals and privacy threats.
This fear actually results from a bad usage of AI, and not from AI itself.
The same is happening nowadays with AI, which already occured in the past with every scientific progress:
every discovery may either help people or be harmful, depending on who is controlling it and of their motivations.
But Science shouldn't be blamed for that: it is the bad usage of science that should be condemned and fought with all possible means.
Big data and AI are just the same: they are helpful (identifying cancers, helping doctors to recognize
rare diseases, empowering hospitals, modeling the propagation of epidemies, predicting disasters, etc.)
but in wrong hands, they may also serve to track and control us, which is unacceptable.
We, OLKi members, are deeply aware of this risk; we have no interest at all in making money, gaining control or taking power, and we are all motivated to build AI approaches
that are ethical and respectful for citizens. We believe this can only be achieved through a total transparency of researches,
and by thinking at every stage of our work about the consequences of our researches and how they could be used for the good of citizens.
We value sharing, and anonymity, which is the last but strongest bastion of privacy.
We are not omniscient, and that's also why we value open-source AI, for which algorithms can be analyzed by everybody:
whenever you find that we may deviate from these ethical objectives, please do let us know: we want to
listen to your feedback, as we may not always imagine all possible AI threats and opportunities.
Conversely, please do not judge AI researches from the rant of mass media: AI will lead humanity neither to heaven nor to hell;
we have been studying AI since more than 30 years, well before the hype of self-driving cars or privacy scandals.
AI is not the cause of the latters, it is the will of some to control others or make money:
AI is fundamentally a science that studies the capacity of our brain.
Thank you.
---
title: "Data anonymity"
date: 2019-01-01T12:02:00+06:00
description : "Data usage and anonymity"
type: post
image:
author: Christophe Cerisara
tags: ["AI", "society"]
---
Can scientists use language data from social media to train machine learning models ?
This is an extremely complex question, which involves laws and regulations, but also
ethics, because language data contains explicit or implicit privacy-sensitive pieces of information.
The bottom line issue is that there is no way to prevent anyone from using the data that
is publicly available to secretely train AI models and use them to gain control, power or money.
So privacy threats will exist as long as the current system remains as it is, and no law whatsoever will
constitute a serious obstacle to such threats.
As far as I can think about it, there is a single real solution: absolute anonymity.
Privacy threats really become serious when they affect our real physical identity.
But as long as only virtual identities are concerned, just like avatars in online games,
no privacy leak is threatening: when a virtual identity is compromised, it is easy to delete it and
create a new one. This is not possible with our unique, physical identity, which must be preserved at all costs.
This looks like a drastic change in the way we use internet nowadays, but this is clearly doable:
governments should enforce internet providers to use anonymous IPs, people should be educated to never reveal
their phone numbers, address, name; anonymous proxies should be setup to enable person-to-person communication,
private communications should be encrypted end-to-end and kept separated from all public communications,
social media clients should help their users to hide every piece of personal information.
Then, AI models could safely exploit the avatars' language data and extract a lot of useful knowledge about our
world and civilisations, without threatening anyone of us; they would give knowledge and money for the ones that
could transform this knowledge into useful services, but they would give no power over people and thus no domination.
---
title: "L'anonymat n'existe pas"
date: 2019-03-01T12:02:00+06:00
description : "Il est impossible de se cacher"
type: post
image:
author: Christophe Cerisara
tags: ["AI", "society"]
---
Est-il véritablement nécessaire de renforcer les lois sur l'interdiction de l'anonymat sur Internet ?
Justifier de telles mesures, qui coûtent extrêmement chères aux citoyens en termes de libertés individuelles
et de protection de la vie privée, par la peur de voir nos enfants harcelés sur Internet n'a aucun sens,
tout simplement parce que le vértiable anonymat n'existe plus sur Internet depuis de nombreuses années.
Il faut commencer par bien comprendre ce que signifie être anonyme: ceci veut dire qu'il est impossible pour
autrui de connaître l'identité civile de la personne qui a écrit quelque chose sur Internet.
Il faut ensuite nuancer cette définition: "impossible" est ... impossible, et il est donc préférable de parler
de difficulté pour identifier quelqu'un. Ainsi, lorsque vous affichez votre état civil dans votre profil sur
internet, il est très facile pour quiconque de connaître votre identité. Lorsque vous utilisez un pseudonyme
et réglez les paramètres de confidentialité au maximum, il est plus difficile pour un simple utilisateur du
réseau de vous identifier, mais il est toujours très facile pour l'opérateur du réseau et toutes les tierces parties
auxquelles il transfert ces informations, ainsi que pour votre fournisseur d'accès internet et bien entendu la police
et la justice de vous identifier.
![](../../images/blog/ano.jpg)
La notion d'autrui est donc également importante, car il est extrêmement difficile aujourd'hui, en fait presque
impossible, de cacher son identité civile sur Internet à la police et à la justice.
Ceci est peut-être normal, justifié; après tout, la justice ( et les politiques ? ) est censée nous protéger, donc
nous devrions pouvoir tout lui révéler de nous afin qu'elle nous protège au mieux, n'est-ce pas ?
Mais c'est en fait déjà le cas.
Au-delà de la sphère judiciaire, ceci peut - doit - nous inciter à bien penser à cette notion d'anonymat sur Internet:
à qui la levée du "pseudonymat" est-elle réellement utile ?
Au final, le harcèlement sur Internet, la parole haineuse, etc. sont déjà interdits par la loi, et c'est heureux.
Donc si un tel acte est avéré, la justice possède déjà tous les instruments et toutes les capacités techniques pour
identifier le coupable et le punir. Faut-il vraiment aller plus loin et accorder ce même pouvoir à d'autres acteurs ?
-----------------
Vous n'êtes pas d'accord avec ceci ?
Tant mieux ! N'hésitez pas à venir en débattre sur Mastodon avec @admin@olkichat.duckdns.org et @cerisara@mastodon.etalab.gouv.fr ...
......@@ -16,27 +16,16 @@ Si cela vous intéresse, envoyez-moi un email ou prévenez-moi sur [Mastodon](ht
# Problématique
Les grandes entreprises américaines ont été les premières à se rendre compte du pouvoir
politique, économique, scientifique et sociétal que procurent les données massives.
Leurs initiatives furent suivies par une prise de conscience d'un nombre restreint de gouvernements, en particulier chinois. Aujourd'hui, une proportion grandissante des citoyens
craint la menace que représente un tel pouvoir.
A mon avis, la sphère politique européenne n'en a par contre toujours pas pris la pleine mesure.
Face aux innombrables scandales récents qui démontrent l'importance des risques encourus,
face aux menaces bien réelles que font peser les gouvernements de certains pays sur leurs citoyens au travers de
l'utilisation de leurs données, il y a urgence à agir, et à tout faire pour protéger le citoyen, en mettant fin aux dérives
issues de l'usage abusif de ce nouveau pouvoir.
Les données sont déjà ici, elles sont présentes partout et les mouvements contestataires isolés ("aucun portable chez moi !")
Les données sont présentes partout et les mouvements contestataires isolés ("aucun portable chez moi !")
ne résoudront rien; il faut changer de modèle.
De nombreuses chartes et manifestes éthiques sur l'usage des données ont ainsi été proposés au cours de ces dernières années,
et je propose d'en faire un recensement partiel et subjectif ci-dessous.
et nous proposons d'en faire un recensement partiel et subjectif ci-dessous.
N'hésitez pas à venir en discuter en m'envoyant un message public sur [Mastodon](https://olkichat.duckdns.org/@admin).
Cette revue n'est pas le seul fruit de mon travail, mais elle résulte d'un travail collectif mené dans le cadre d'un
groupe de travail sur l'éthique du projet OLKi, groupe qui n'a pas encore rédigé de rapport, et ce résumé n'est que ma vision personnelle
d'une partie de ce travail.
je remplacerai évidemment ce texte par le rapport complet du groupe dès que possible.
Cette réflexion est toujours en cours en 2020.
# Revue de l'existant
......@@ -49,6 +38,7 @@ Citons par exemple, du côté des organismes officiels:
* Les rapports du [COERLE INRIA](https://intranet.inria.fr/Actualite/Le-Coerle-au-caeur-des-questions-d-ethique-et-d-integrite-scientifique)
* Le [groupe éthique IA de l'UE](http://europa.eu/rapid/press-release_IP-19-1893_fr.htm) et ses [guidelines](https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai)
* La [déclaration de Montréal pour une IA responsable](https://www.montrealdeclaration-responsibleai.com/the-declaration)
* https://www.etalab.gouv.fr/algorithmes-publics-des-eleves-de-lena-formulent-une-serie-de-recommandations-sur-les-enjeux-dethique-et-de-responsabilite
Les associations ne sont pas en reste, avec par exemple:
......@@ -78,7 +68,5 @@ Il faut donc ouvrir également les modèles, avec des licences open-source appro
Bien sûr, tous les citoyens ne réaliseront pas ce contrôle, mais cette possibilité doit rester ouverte, afin que
tous ceux qui en ont la possibilité et l'intérêt, notamment les associations de défense des libertés, puissent réaliser ce contrôle à tout moment.
De telles mesures ne sont à ma connaissance jamais proposées, peut-être parce qu'elles contrecarrent certains business models opaques existants.
Mais face à l'ampleur des menaces, il me semble important au moins d'engager une réflexion indépendante sur ces questions, et c'est ce que nous nous proposons de faire dans OLKi.
---
title: "Acting for openness"
date: 2019-04-29T12:01:00+06:00
description : "Interesting actions to support"
type: post
image:
author: Christophe Cerisara
tags: []
---
- We support the idea that **public money = public code** ; if you do too, please sign [this action](https://publiccode.eu/fr/)
- We support the building of federated software, such as [Mobilizon](https://joinmobilizon.org/en/) : donate if you support too !
......@@ -8,7 +8,7 @@ author: Christophe Cerisara
tags: ["AI"]
---
Two workshops linked with the OLKi have been accepted at the TALN conference:
One workshop and one tutorial linked with OLKi have been accepted at the TALN conference:
- **ETeRNAL**: about ethics and NLP
- **CLARIN-FR**: about language resources and platforms
......
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment