La France va expérimenter dès 2020 une «monnaie centrale digitale»


L’élaboration d’une «monnaie digitale de banque centrale» sera lancée par la Banque de France en 2020, a déclaré ce mercredi 4 décembre son directeur, M.Villeroy de Galhau. La monnaie sera dédiée aux transactions «de gros» aux montants très élevés.

La Banque de France va lancer en 2020 des expérimentations pour développer une «monnaie digitale de banque centrale» (MDBC) dédiée aux transactions «de gros» aux montants très élevés, a annoncé mercredi son gouverneur François Villeroy de Galhau, cité par l’AFP.

L’institution compte commencer des expérimentations «rapidement» et lancer un appel à projets d’ici la fin du premier trimestre 2020, a-t-il précisé lors d’une conférence à Paris.

Première dans la zone euro

Cette initiative de la banque centrale française constituera une première dans la zone euro. Son but sera de développer à terme un «euro digital», a expliqué à l’AFP la Banque de France. Concrètement, il s’agirait d’un euro sous forme numérique dont les mécanismes d’émission pourraient reposer sur des technologies comme celle de la blockchain ou des chaînes de bloc.

Elle participera «à l’étude d’un éventuel e-euro» (ou euro électronique, virtuel) porté par l’Eurosystème, un sujet déjà évoqué lundi devant le Parlement européen par la nouvelle présidente de la banque centrale européenne, Christine Lagarde, a développé M. Villeroy de Galhau.

Une monnaie digitale de banque centrale au niveau européen permettrait de «disposer d’un puissant levier d’affirmation de notre souveraineté face aux initiatives privées du type Libra», a-t-il défendu.

Cryptomonnaie de Facebook

En juin dernier, Facebook s’était attiré les foudres de nombreux gouvernements dans le monde en annonçant vouloir lancer en 2020 sa propre cryptomonnaie, adossée à un panier de devises. Depuis le géant des réseaux sociaux a dû revoir ses ambitions à la baisse face aux réticences des autorités et régulateurs, notamment américains, et les défections d’entreprises partenaires pour l’accompagner dans ce projet.

Outre Facebook, la banque américaine JPMorgan, la première au monde, a également annoncé en février le prochain lancement du JPM Coin, adossé au dollar et réservé aux investisseurs institutionnels.

D’après le banquier central français, une monnaie virtuelle européenne permettrait de réaliser des  «gains d’efficacité», de réduire des «coûts d’intermédiation» mais aussi de donner la possibilité «d’échanger ses avoirs contre de la monnaie légale».

Source: Sputnik News

Le fisc souhaite «collecter en masse» les données sur Facebook et Leboncoin pour traquer les fraudeurs


Dans le cadre du projet de loi 2020, le ministère de l’Economie et des Finances souhaite expérimenter un outil de surveillance de masse des réseaux sociaux, mais aussi les plates-formes de revente et d’e-commerce.

Bercy veut systématiser sa surveillance sur les réseaux sociaux et les plates-formes d’échange pour traquer les fraudeurs. Comme le rapporte NextInpact, dans le projet de loi de finances 2020 porté par le gouvernement, l’article 57 vise à donner « la possibilité pour les administrations fiscales et douanières de collecter et exploiter les données rendues publiques sur les sites internet des réseaux sociaux et des opérateurs de plate-forme ». En clair, la douane et les impôts pourront exploiter l’ensemble des publications, photos, vidéos publiques que vous publiez sur Facebook ou Instagram… Mais aussi les petites annonces que vous affichez sur LeBonCoin, par exemple.  

« Ciblage de la fraude »

Cet outil administratif, appelé « Ciblage de la fraude et valorisation des requêtes » (CFVR) a été développé depuis 2013. Techniquement, le mécanisme s’appuie sur « des méthodes statistiques innovantes, sur des provenances de l’administration fiscale et d’autres administrations, de bases de données économiques payantes et de données en libre accès », peut-on lire dans le projet de loi. L’expérimentation durera trois ans.

Concrètement, toutes les publications des internautes pourront être passées au crible. Les douaniers et les inspecteurs pourront vérifier si les données officielles détenues sur les citoyens sont exactes. L’objectif est de confirmer que le train de vie d’un contribuable sur la Toile coïncide bien avec sa déclaration d’impôt. Les personnes susceptibles d’être suivies ne seront pas mises au courant. Mais elles auront, si elles en font la démarche, un droit d’accès aux documents détenus à leur propos. 

Les données effacées après 30 jours… ou gardées un an

Les éléments jugés dignes d’intérêt pourront être conservés pendant un an. Si les éléments sont utilisés dans le cadre d’une procédure pénale, ils seront gardés jusqu’à son terme. Les autres seront effacés après 30 jours. Le texte interdit néanmoins l’usage de la reconnaissance faciale.

Selon la procédure classique, ce programme de surveillance sera mis en application par un décret du Conseil d’Etat et soumis à un avis de la Cnil. Puis dans un délai de six mois avant la fin de l’expérimentation, un rapport sera remis au Parlement et à la Cnil, afin « d’évaluer si l’amélioration de la détection des fraudes est proportionnée à l’atteinte portée au respect de la vie privée ». 

Source: 01net.com

Facebook veut s’occuper de votre santé? Attention danger!


Les grands acteurs du numérique veulent partager vos données personnelles avec vos médecins. C’est une très mauvaise idée.

Vos habitudes sur Netflix peuvent-elles prédire la survenue d’une maladie inflammatoire chronique de l’intestin? Le vocabulaire religieux des messages postés sur Facebook par des internautes américain·es pourrait-il être un signe de diabète? Alexa d’Amazon est-elle capable de détecter quand vous tombez malade et vous proposer d’acheter des médicaments?

Depuis peu, toutes les grandes entreprises technologiques se lancent dans les soins de santé, avec des investissements mobilisant leurs vastes banques de données personnelles. Amazon est en train de vendre un logiciel capable de consulter les dossiers médicaux afin d’élargir les compétences d’Alexa en matière de santé et de bien-être. Google développe un logiciel de reconnaissance vocale pour aider les médecins à remplir les dossiers de leurs patient·es. Alphabet, maison mère de Google, a mis au point un partenariat entre Verily (sa branche spécialisée dans les sciences de la vie) et Walgreens pour surveiller si les malades suivent bien leurs traitements. Apple ne cesse de développer des applications de santé et de bien-être pour ses montres connectées, qui intégrent données personnelles de suivi et dossiers médicaux électroniques de ses hôpitaux partenaires. Microsoft travaille actuellement à la conception d’un logiciel d’intelligence artificielle (IA) de gestion à distance des dossiers médicaux. Même Uber et Lyft entrent dans la danse avec un service de «transport médical non urgent».

Le pari de ces entreprises? Monétiser nos traces numériques, même si elles ne sont pas directement liées à notre santé, grâce à une nouvelle approche combinant intelligence artificielle et données personnelles de consommation afin de créer une analyse personnalisée et prédictive. Sauf qu’il y a peu de chance que toutes ces données améliorent réellement notre santé. En revanche, elles pourraient aggraver notre vulnérabilité au profilage numérique, à la surveillance et à la manipulation dans l’un des domaines les plus intimes de notre existence: nos rapports avec les professionnel·les de santé.

Déterminants sociaux de santé

Avec 3.650 milliards de dollars (3 .337 milliards d’euros) dépensés en soins de santé aux États-Unis en 2018, le marché est effectivement énorme, et les promesses de gros sous des plus alléchantes. Malades et médecins ne se satisfont pas du système actuel, et les entreprises technologiques se targuent d’un avantage concurrentiel du fait qu’elles comprennent le comportement des personnes qui consomment, comme le prouvent la data qui est en leur possession. Si on suit leur raisonnement, leurs énormes banques de données personnelles seraient les seules à pouvoir révéler certaines corrélations entre comportements et santé, eu égard au temps que passent les internautes à se dévoiler sur les plateformes.

Pour les entreprises du secteur de la santé, il s’agit d’une occasion en or pour améliorer la démarche centrée «sur le patient», en prédisant des «scores de risque» individualisés pour personnaliser le parcours de soins (tout en augmentant leurs revenus et en réduisant leurs coûts). Reste que, pour les malades, les avantages qu’il y a à transmettre autant de données personnelles sont bien moins évidents.

L’influence des déterminants sociaux sur notre santé est plus importante que celle de la génétique ou des soins.

Le type de données exploitées par les entreprises technologiques –nos achats, nos goûts, ce qui nous procure du plaisir et ce qui nous fait pester– n’ont pas grand-chose à voir avec celles que les médecins et les équipes de recherche utilisent traditionnellement pour diagnostiquer les maladies. Contrairement à un taux de glycémie ou un ECG, les données issues de sites «métacliniques» comme Facebook ou Amazon concernent des déterminants sociaux de santé.

Comme les définit l’OMS, il s’agit des «circonstances dans lesquelles les individus naissent, grandissent, vivent, travaillent et vieillissent ainsi que les systèmes mis en place pour faire face à la maladie». Leur influence sur notre santé est plus importante que celle de la génétique ou des soins médicaux. Le sujet était encore peu évoqué dans les milieux médicaux ou le secteur technologique jusqu’à très récemment. Pourquoi? Parce qu’il est difficile de quantifier, par exemple, à quel point une personne peut se sentir seule, et encore plus difficile de mettre en œuvre des mesures médicales ou pharmacologiques pour l’inciter à sortir davantage de chez elle. Les déterminants sociaux ont donc été laissés aux bons soins des parentes pauvres de la médecine, à savoir la santé publique et l’action sociale.

Votre profil à la patte

Cette situation a changé après la crise financière de 2008 et l’adoption de l’Obamacare en 2010. Les hôpitaux ont désormais intérêt à se préoccuper des déterminants sociaux de santé. Par exemple, la réforme du système de santé américain voulue par Obama faisait du «soin axé sur la valeur» une nouvelle référence pour la rémunération des professionnel·les de santé, qui faisaient passer la qualité des soins (les résultats pour les patient·es) devant la quantité (ciao la tarification à l’acte). Pour être payées, les personnes qui travaillent dans ce domaine ont dû voir plus loin que leur cabinet et prendre en considération des facteurs tels que le voisinage, le niveau d’études, l’alimentation, les revenus, les discriminations et le stress des malades qui venaient les consulter pour en mesurer les effets sur leur santé.

Pour les partisans de l’assimilation des droits à la santé aux droits humains, il en allait d’une évolution prometteuse. Pour le secteur de l’analyse des données, c’était une mine d’or.

«Avec tous les consentements que vous avez à accordé, j’ai trouvé ça plutôt marrant!»

C’est là que l’intelligence artificielle et le machine learning sont entrés en piste. Les soins de santé représentent le plus gros marché pour ce secteur émergent. Des entreprises comme Jvion combinent des données sur «des milliers de facteurs socioéconomiques et comportementaux» avec le dossier médical d’un·e patient·e pour prévoir et prévenir ses maladies. Si vous avez récemment commencé à acheter des somnifères, à vous payer les services d’un·e avocat·e pour divorcer ou si vous avez reçu beaucoup de contraventions pour excès de vitesse, votre «profil de risque» en tiendra compte.

Des établissements hospitaliers comme la Mayo Clinic, l’Intermountain Healthcare ou le CHU de Cleveland payent pour avoir accès aux «technologies cognitives» de Jvion, IBM, ou encore DeepMind Health de Google qui leur promettent des «analyses prescriptives de dommages évitables», gèrent l’évolution des risques des personnes concernées et recommandent des interventions personnalisées.

«Merci @NHSDigital de nous soutenir pendant l’entraînement au management des risques cliniques. Nous vous assurons de livrer des produits sécurisés aux infirmières et aux médecins doctors using comme Streams.»

Par exemple: surveiller les personnes qui abusent de la médecine d’urgence lorsqu’elles ne sont pas à l’hôpital afin de les empêcher d’y revenir, prévenir une dépendance aux opiacés, des crises cardiaques et des accidents vasculaires cérébraux, ou encore anticiper une prise en charge pour des problèmes de santé mentale.

De la nature des données collectées

Ce qui pourrait presque faire rêver. On a l’impression de soins futuristes, avec des algorithmes détectant et prévenant la survenue imminente de la maladie avant même qu’elle ne se manifeste. À ceci près que lorsque les déterminants sociaux de santé relèvent de critères comme votre origine ethnique, votre quartier ou vos antécédents financiers, ces données ne sont ni neutres ni objectives, et requièrent d’être interprétées avec doigté. Lorsque les systèmes d’intelligence artificielle et de machine learning prennent en compte l’origine ethnique, par exemple, il faudrait qu’ils sachent faire la différence entre la «race» en tant que classification médicale fallacieuse et la «discrimination raciale», un facteur tout à fait réel qui affecte la santé du fait de préjudices structurels et individuels.

Des courtiers en données comme LexisNexis et Acxiom vendent déjà aux professionnel·les de santé des données sur les déterminants sociaux, y compris des informations relatives aux casiers judiciaires, achats en ligne, programmes de fidélité, registres électoraux, etc. Bientôt, quand ils mesureront leur poids ou leur tension artérielle, les médecins américains pourront aussi savoir si les personnes concernées ont leurs habitudes dans des restaurants pas très diététiques.

Ces courtiers ont joué un rôle de premier plan dans le ciblage publicitaire qui est pratiqué sur Facebook. Il semble que le réseau social veuille désormais constituer son propre stock de déterminants sociaux de santé. Une tribune publiée en janvier dans le Journal of the American Medical Association (Jama) présente un tel projet. Avec deux de ses collaborateurs, Freddy Abnousi, cardiologue à la tête du département de Facebook consacré à la recherche médicale, y soutient que les équipes de recherche en sciences de la santé devraient accorder davantage d’attention aux déterminants sociaux collectés sur les réseaux et combiner ces informations aux dossiers médicaux des patient·es afin d’obtenir les meilleurs résultats possible.

Si les auteurs ne présentent pas explicitement leur projet comme une exploitation des données Facebook, ils conçoivent une «définition plus fine et technologiquement orientée» des déterminants sociaux de santé qui comprendrait le «nombre d’amis» ainsi que des «biomarqueurs sociaux complexes, comme la temporalité, la fréquence, le contenu, l’orientation générale des messages et le degré d’intégration aux communautés en ligne» provenant «de millions d’utilisateurs». Ils exhortent leur lectorat à imaginer la «richesse des liens susceptibles d’être analysés grâce au machine learning et autres méthodologies évolutives de “big data”», en donnant comme exemples des sujets sur lesquels Facebook travaille d’ores et déjà: la prévention du suicide, la dépendance aux opiacés et la santé cardiovasculaire.

Règles de confidentialité violées

Ce qui ne fait pas sauter de joie les défenseurs du droit à la confidentialité des données médicales. Les premières initiatives de Facebook visant à combiner données sociales et médicales sans le consentement des malades (un projet également chapeauté par Abnousi) avaient été révélées en même temps que le scandale Cambridge Analytica, ce qui avait fait très mauvaise impression auprès du public et entraîné l’arrêt du projet.

En réaction à l’article du Jama, des patient·es se sont regroupé·es pour critiquer ces projets et ont souligné la perte de confiance de plus en plus patente que les internautes ressentent vis-à-vis de la plateforme. En outre, l’amende record de la Fédération américaine du commerce (FTC) infligée à Facebook pour ses manquements en matière de respect de la vie privée –et le fait que la décision ne prévoit aucune mesure spéciale sur la protection des données médicales– n’a fait que saper davantage la crédibilité de Facebook, avant que le Centre d’information sur la vie privée électronique (Epic) ne dépose une nouvelle plainte.

Facebook n’est pas le seul géant du numérique à être sur la sellette pour vouloir s’aventurer sur ce terrain. Une plainte déposée en juin contre Google et le CHU de Chicago affirme que le centre médical aurait partagé des données identifiables provenant des dossiers médicaux électroniques de milliers de personnes hospitalisées entre 2009 et 2016. Selon la plainte, ces dossiers contiendraient des horodatages qui, combinés aux données de géolocalisation et autres auxquelles Google peut accéder, rend très facile l’identification des patient·es. En 2018, des chercheurs de Google avaient déjà fait état de ce travail, en précisant que leurs méthodes de formation de leurs algorithmes reposaient sur «l’ensemble [du dossier médical électronique], y compris les annotations en texte libre», ce qui va dans le sens de la plainte estimant que des règles de confidentialité ont été violées lorsque Google a récupéré ces dossiers.

Quand Google ou Facebook combine ses données génériques à des données médicales très sensibles, des profils médicaux numériques sont créés sans validation externe de l’exactitude des données, sans consentement des internautes ni possibilité de refuser ce fichage. Plus les entreprises technologiques seront nombreuses à s’intéresser à la santé des personnes concernées, plus ces profils numériques seront intégrés à nos dossiers médicaux, ce qui risquera d’affecter les types de soins qui nous serons proposés, les ressources auxquelles nous pourrons avoir accès et la facture que nous aurons à payer en fin de compte.

Demandez à votre médecin si vous pouvez accéder à votre profil.

Une interprétation humaine de ces profils pourrait les contextualiser de manière plus nuancée et significative, par exemple, si on y trouve des tickets de caisse de supermarché remplis d’aliments ultra-transformés achetés dans un quartier pauvre. À l’inverse, un programme d’intelligence artificielle pourrait voir dans ces données la preuve d’un mauvais respect des recommandations nutritionnelles. Ce qui entraînera l’augmentation du score de risque et ses pénalités associées.

Vous avez tout intérêt à demander à votre médecin quels types d’exploration de données et de profilage numérique sont utilisés au moment de prendre une décision thérapeutique. Demandez aussi si vous pouvez accéder à votre profil. Mais ne vous étonnez pas s’il vous demande, à son tour, comment vous avez trouvé les piments farcis au fromage que vous vous êtes fait livrer avant de lancer Diagnosis sur Netflix.

Source: Slate

Interface cérébrale : Facebook rachète CTRL-labs


Facebook croit en un futur dans lequel il suffira de penser pour interagir avec son ordinateur ou son smartphone. La société vient en ce sens de racheter CTRL-labs, une start-up spécialiste de ce genre d’interfaces.

Facebook vient d’annoncer le rachat de CTRL-labs, fabricant d’un bracelet électronique qui, un jour peut-être, permettra de valider une action sur le système d’exploitation de son ordinateur simplement par la pensée. Le montant de cette acquisition n’a pas été dévoilé publiquement, mais selon Bloomberg, qui cite des sources proches du rachat, Facebook aurait signé un chèque compris entre 500 millions et 1 milliard de dollars pour s’offrir cette start-up pionnière du « brain computing » créée il y a seulement 4 ans.

Contrôler ses appareils électroniques par la pensée

« La vision de CTRL-labs, c’est un bracelet qui permettrait aux gens de contrôler leurs appareils électroniques comme s’il s’agissait d’une simple extension du mouvement » , explique Andrew Bosworth, vice-président chargé du hardware chez Facebook. Au-delà d’être un système encore utopique qui nécessitera sans doute encore des années de développement, il s’agit d’une approche originale puisque l’on parle de contrôler des appareils électroniques par la pensée, mais par le biais d’un bracelet qui a tout l’air d’interpréter certains mouvements.

La vision de CTRL-labs de ce que seront les interfaces « cérébrales » est donc bien différente de celle sur laquelle travaille Neuralink, l’entreprise d’Elon Musk qui, elle, envisage l’implantation d’un système d’interprétation des signaux cognitifs directement au niveau du cerveau. Cela dit, alors que l’opération nécessaire à l’installation de Neuralink pourrait évidemment être vue comme un frein au développement d’un tel système, le fait que l’interface « neuronnale » envisagée par CTRL-labs soit non invasive pourrait être perçu comme un gros avantage.

Source: Les Numériques

Tuer la liberté d’expression en France, en Allemagne et sur Internet


En mai, la France a appelé à une surveillance accrue de Facebook par le gouvernement.

Aujourd’hui, Facebook a accepté de remettre aux juges français les données d’identification des utilisateurs français soupçonnés d’incitation à la haine sur sa plate-forme, selon le secrétaire d’État français au secteur numérique, Cédric O.

Précédemment, selon un rapport de Reuters, « Facebook s’était abstenu de communiquer les données d’identification des personnes soupçonnées de discours haineux parce qu’il n’était pas tenu de le faire en vertu des conventions juridiques franco-américaines et parce qu’il craignait que des pays dépourvus de justice indépendante puissent en abuser ». Jusqu’à présent, a noté Reuters, Facebook n’avait coopéré avec la justice française sur des questions liées à des attentats terroristes et à des actes de violence qu’en transférant les adresses IP et autres données d’identification des suspects à des juges français qui l’avaient officiellement demandé.

Aujourd’hui, cependant, le « discours de haine » – comme on l’appelle commodément « discours non conforme à l’orthodoxie politique actuelle » – semble être devenu comparable au terrorisme et aux crimes violents. Comme c’est autocratique, mais Cédric O est apparemment ravi : « C’est une énorme nouvelle, cela signifie que le processus judiciaire pourra se dérouler normalement ».

Il est fort probable que d’autres pays voudront conclure une entente semblable avec Facebook ; il semble également probable que Facebook s’y conformera. En mai, par exemple, alors que la France débattait d’une législation qui donnerait à un nouveau « régulateur indépendant » le pouvoir aux entreprises de haute technologie d’obtenir jusqu’à 4% de leur chiffre d’affaires mondial si elles ne font pas assez pour supprimer les « contenus haineux » de leur réseau, Mark Zuckerberg, PDG de Facebook, a déclaré :

« J’espère qu’elle [la proposition française] pourra devenir un modèle qui pourra être utilisé dans toute l’UE ».

La France est le premier et jusqu’à présent le seul pays à avoir conclu un tel accord avec Facebook.

Le nouvel accord pourrait marquer la fin de fait de la liberté d’expression sur Facebook pour les citoyens français. L’autocensure en Europe est déjà largement répandue : une enquête récente en Allemagne a montré que deux tiers des Allemands sont « très prudents » sur les sujets dont ils discutent en public, l’islam et les migrants étant les plus tabous. Sachant qu’un simple message sur Facebook pourrait vous mener devant un juge en cour est très susceptible d’entraver de façon décisive le désir de quiconque de s’exprimer librement.

Les autorités françaises sont déjà en train de donner un exemple extrêmement public de ce qui peut arriver à ceux qui utilisent leur liberté d’expression sur Internet. Marine Le Pen, chef du Parti du Rassemblement national, a récemment été condamné à un procès et encourt une peine maximale de trois ans de prison et une amende de 75 000 euros (85 000 dollars) pour avoir diffusé des « messages violents incitant au terrorisme ou à la pornographie ou portant gravement atteinte à la dignité humaine ». En 2015, elle avait tweeté sur Twitter des images d’atrocités commises par l’ISIS en Syrie et en Irak pour montrer ce que faisait l’ISIS.

Si l’accord de Facebook avec la France est repris par d’autres pays européens, tout ce qui reste de la liberté d’expression en Europe, en particulier sur Internet, risque de se tarir rapidement.

Début juillet, l’Assemblée nationale française a adopté un projet de loi visant à réduire la propagande haineuse sur Internet. L’avant-projet de loi donne 24 heures aux plateformes de médias sociaux pour supprimer les « contenus haineux » ou risquer des amendes allant jusqu’à 4% de leurs revenus mondiaux. Le projet de loi a été renvoyé au Sénat français et pourrait devenir loi après la pause parlementaire de l’été. Si c’est le cas, la France sera le deuxième pays d’Europe après l’Allemagne à adopter une loi qui oblige directement une entreprise de médias sociaux à censurer ses utilisateurs au nom de l’État.

Début juillet également, en Allemagne, où la loi sur la censure, connue sous le nom de NetzDG, exige également que Facebook supprime les contenus dans les 24 heures, sous peine d’amendes pouvant atteindre 50 millions d’euros, l’Office fédéral de la justice a imposé une amende réglementaire de 2 millions € à Facebook « pour les renseignements incomplets fournis dans son rapport publié[la publication de son rapport de transparence pour le premier semestre 2018 requis par NetzDG] au sujet des plaintes reçues pour contenu illicite. Cela donne au grand public une image déformée à la fois de la quantité de contenus illicites et de la réponse du réseau social ».

Selon l’Office fédéral allemand de la justice, Facebook n’informe pas suffisamment ses utilisateurs de la possibilité de signaler un « contenu criminel » dans le formulaire spécifique « NetzDG reporting form » :

Facebook a mis en place deux systèmes de reporting : d’une part, ses canaux standard de retour d’information et de reporting et, d’autre part, le  » formulaire de reporting NetzDG « . Les utilisateurs qui souhaitent déposer une plainte concernant un contenu criminel en vertu de la loi sur l’application des réseaux se voient orienter vers les canaux standard, étant donné que l’existence parallèle des canaux standard et du « formulaire de rapport NetzDG » n’est pas suffisamment transparente et que le « formulaire de rapport NetzDG » est trop secret…Lorsque les réseaux sociaux offrent plus d’un canal de rapport, cela doit être rendu clair et transparent pour les utilisateurs et les plaintes reçues via ces canaux doivent être incluses dans le rapport de transparence. Après tout, les procédures de traitement des plaintes pour contenu illicite ont un impact considérable sur la transparence. »

En réponse, Facebook a dit :

« Nous voulons éliminer le discours haineux le plus rapidement et le plus efficacement possible et nous nous efforçons de le faire. Nous sommes convaincus que nos rapports publiés par NetzDG sont conformes à la loi, mais comme de nombreux critiques l’ont souligné, la loi manque de clarté. »

Bien que Facebook prétende lutter contre le discours haineux en ligne, y compris le fait d’avoir retiré des millions d’éléments de contenu terroriste de sa plateforme, selon un rapport récent du Daily Beast, 105 messages de certains des terroristes les plus notoires d’al-Qaïda sont toujours affichés sur Facebook, de même que sur YouTube.

Parmi les terroristes figurent Ibrahim Suleiman al-Rubaish, emprisonné pendant plus de cinq ans à Guantanamo Bay pour s’être entraîné avec Al-Qaïda et avoir combattu aux côtés des talibans en Afghanistan contre les États-Unis, et Anwar al-Awlaki, un terroriste né aux États-Unis, tués par des drone américains. Selon un responsable américain de la lutte contre le terrorisme, s’exprimant en septembre 2016 :

« Si vous regardez les gens qui ont commis des actes de terrorisme ou qui ont été arrêtés et que vous faites un sondage, vous constaterez que la majorité d’entre eux ont été exposés aux Awlaki. »

Awlaki prêchait et diffusait son message de djihad dans les mosquées américaines dès les années 1990. À la mosquée Masjid Ar-Ribat al-Islami de San Diego, entre 1996 et 2000, deux des futurs pirates de l’air du 11 septembre ont assisté à ses sermons. Il aurait également inspiré plusieurs autres terroristes, comme le terroriste de Fort Hood, le major Nidal Malik Hasan, avec qui il a échangé des courriels, et les frères Tsarnaev, qui ont bombardé le marathon de Boston en 2013. Apparemment, ce genre d’activité ne dérange pas Facebook : Le Daily Beast aurait trouvé les vidéos par de simples recherches en arabe en utilisant uniquement les noms des djihadistes.

Le fait que Facebook semble être « créativement » sélectif dans la façon dont il choisit de suivre ses propres règles n’est pas nouveau. Comme l’a déjà signalé le Gatestone Institute, Ahmad Qadan en Suède a collecté publiquement des fonds pour ISIS pendant deux ans. Facebook n’a supprimé les messages qu’après que le service de sécurité suédois (Säpo) ait contacté Facebook. En novembre 2017, Ahmad a été condamné à six mois de prison pour avoir utilisé Facebook pour collecter de l’argent afin de financer l’achat d’armes pour les groupes terroristes ISIS et Jabhat al-Nusra et pour avoir affiché des messages appelant à  » de graves actes de violence visant principalement ou de façon disproportionnée des civils dans le but de créer la terreur dans le public « .

En septembre 2018, les médias canadiens ont révélé qu’un chef terroriste torontois, Zakaria Amara, alors qu’il purgeait une peine d’emprisonnement à perpétuité pour avoir comploté des attentats à la bombe commis par des camions piégés par Al-Qaïda au centre-ville de Toronto, avait néanmoins une page Facebook où il avait affiché des photos et des notes sur les raisons de son appartenance au terrorisme. Ce n’est qu’après que les médias canadiens eurent contacté Facebook pour poser des questions sur le compte que Facebook a supprimé le compte d’Amara « pour avoir violé les normes de notre communauté ».

Quand Facebook — et YouTube — feront-ils de l’enlèvement du contenu mettant en vedette le terroriste Awlaki, dont l’incitation a inspiré de vrais terroristes à tuer des gens ?

Source: Zero Hedge

Traduit par: SENTINELLE SAPS

Internet et manipulation: les visions glaçantes de Tristan Harris


Sommes-nous devenus de simples marionnettes? 

Ex-ingénieur chez Google, chercheur en éthique et en «persuasion humaine», l’Américain lance d’angoissantes alertes sur les méthodes des géants du net.

Pour quiconque suit l’actualité chamboulée du monde de la tech, Tristan Harris n’est pas un inconnu. Ingénieur pour Apple et Google, chez qui il a étudié en profondeur les questions de l’éthique et de la «persuasion humaine», l’Américain est désormais l’un des plus efficaces porte-voix de celles et ceux s’inquiétant des méthodes et dark patterns mis en place par les GAFAM pour manipuler les esprits.

Très présent dans le débat grandissant sur la responsabilité des géants du net envers leurs utilisateurs et utilisatrices, Harris a cofondé le Center For Humane Technology, une ONG dont l’objectif affiché est de «renverser le déclassement humain» («human downgrading», en version originale) et de «réaligner la technologie avec l’humanité».

Cette question de la manipulation généralisée des cerveaux fait actuellement l’objet d’une audition au Sénat américain, où certain·es élu·es aimeraient comprendre les choses –avant éventuellement de les reprendre en main en légiférant.

Dépendance et double numérique

Comme d’autres spécialistes de la question, Rashida Richardson (AI Now Institute), Maggie Stanphill (Google) et Stephen Wolfram (Wolfram Research), Tristan Harris a été invité à donner son avis par la commission sénatoriale.

Exemples édifiants à l’appui, il a dessiné un résumé glaçant des coulisses de notre navigation en ligne, et de la manière dont elle est influencée par des méthodes, designs et algorithmes dont nous ignorons tout lorsque nous sautons innocemment d’une page à une autre sur internet, quand nous publions un statut sur Facebook ou quand nous rafraîchissons notre fil Twitter.

«Ça commence avec le “pull to refresh” pour rafraîchir son fil d’actualité», a expliqué Harris, repris par Gizmodo, au Sénat. «Ça marche comme une machine à sous, avec des capacités d’addiction similaires à celles qui accrochent les joueurs à Las Vegas.» Shoot de dopamine après shoot de dopamine, récompense après récompense, une dépendance à l’attention que nous portent les autres, via les likes ou le nombre de followers notamment, s’installe chez les utilisateurs de réseaux sociaux.

Harris a également de nouveau présenté son effrayante théorie de «l’avatar numérique»: un double algorithmique dont chacun·e disposerait, quelque part sur les serveurs anonymes des grosses plateformes, et qui permettrait aux géants du net de nous connaître mieux que nous nous connaissons nous-mêmes, donc de manipuler nos désirs, actions et réactions.

Chaque terme d’outrage moral ajouté à un tweet augmentait le taux de retweets de 17%. Autrement dit, la polarisation de nos sociétés fait partie du business model.

TRISTAN HARRIS, LORS DE SON AUDITION DEVANT LE SÉNAT AMÉRICAIN

C’est par exemple ainsi que nous serions naturellement dirigé·es vers des contenus outrageants: ce sont ceux, expose Harris, qui provoquent le plus d’engagement, le nerf fondamental de la guerre pour l’attention. «Une étude a montré que chaque terme d’outrage moral ajouté à un tweet augmentait le taux de retweets de 17%. Autrement dit, la polarisation de nos sociétés fait partie du business model.»

Même chose pour YouTube, qui tire 70% de son trafic des recommandations que son algorithme contestable présente aux internautes –comme cela a été récemment démontré, celles-ci les poussent souvent vers des vidéos de plus en plus trash, outrageantes, conspirationnistes, créant même un terrain de jeu idéal pour les pédophiles.

Dégoûté·e, vous désirez quitter Facebook? Tristan Harris détaille la manière dont la plateforme de Mark Zuckerberg tente de vous en dissuader: elle vous demande de confirmer votre départ en faisant apparaître les visages des cinq relations qui risquent de vous manquer le plus. Le tout calculé, là encore, par un savant algorithme.

L’audition de Tristan Harris et de ses camarades devant le Sénat américain.

Les machines nous connaissent par cœur

Cette science algorithmique, comme celle de l’intelligence artificielle, progresse à grande vitesse. «Sans même avoir accès à vos données, je peux prédire de plus en plus de choses à propos de vous en utilisant l’IA», a assuré Harris à son auditoire.

«Un récent article expliquait qu’on pouvait déterminer les mêmes cinq grands traits de personnalité d’un individu que Cambridge Analytica, sans même avoir accès à vos données personnelles. Une simple étude du mouvement de votre souris et de la manière dont vous cliquez suffit.»

Sombre, volontairement anxiogène mais pas totalement irréaliste, le tableau dépeint par Tristan Harris a été suffisamment inquiétant pour faire dire à John Tester, sénateur du Montana, qu’il «sera probablement mort et enterré, et heureux de l’être, quand toute cette merde prendra toute son ampleur».

À moins bien sûr, si cela est encore possible, que les responsables politiques n’imposent des règles contraignantes aux acteurs du marché de la tech. Ou que les utilisateurs et utilisatrices, lassées de ces influences invisibles et de leurs conséquences sur leur libre arbitre, ne décident de reprendre un contrôle plus conscient de leur vie, poussant alors les géants du net à adapter leurs méthodes.

Source: Korii

La France obtient de Facebook la transmission des adresses IP des auteurs de propos haineux en ligne


Le gouvernement français le souhaitait, Facebook l’a fait : le géant va désormais fournir à la justice hexagonale les adresses IP des auteurs de propos en ligne jugés haineux. Le secrétaire d’Etat au Numérique s’est félicité d’une «énorme nouvelle».

C’est, de l’aveu de Cédric O, secrétaire d’Etat au Numérique du gouvernement Philippe, «une énorme nouvelle» : la firme américaine Facebook a en effet accepté de fournir à la justice française l’adresse IP des auteurs de propos jugés haineux sur internet. Dans une interview accordée à Reuters le 25 juin, Cédric O précise que cette décision du géant des réseaux sociaux fondé par Mark Zuckerberg en 2004 est spécifique à la France.

«Ils nous ont annoncé que […], eu égard aux discussions qu’ils ont eues avec nous, ils allaient transmettre les adresses IP pour les contenus de haine en ligne qui seraient demandées par la justice», a-t-il expliqué. Avant cette requête du gouvernement français, l’adresse IP – un numéro d’identification unique des moyens de connexion sur internet – n’était fourni par Facebook à la justice française que lorsqu’il s’agissait de dossiers relevant du terrorisme ou de la pédopornographie. «Sur les sujets haine en ligne, ils ne les donnaient pas», a rappelé le secrétaire d’Etat.

Une ligne de crête entre liberté d’expression et protection

Le calendrier de cette annonce ne doit rien au hasard. Création d’un parquet spécialisé dans la cyberhaine, contenus jugés illicites retirés sous 24 heures : la proposition de loi Avia – du nom de la député de Paris et porte-parole de La République en marche (LREM), Lætitia Avia – pour lutter contre la haine en ligne doit être débattue à l’Assemblée nationale à compter du 3 juillet.

Une thématique chère à la macronie. Le garde des Sceaux, Nicole Belloubet, va en effet constituer un groupe d’experts pour lancer «une réflexion approfondie sur la liberté d’expression sur les réseaux sociaux». Ce même jour, Cédric O partageait sur RTL son analyse de la difficile quête de «la ligne de crête entre liberté d’expression et protection». «Aujourd’hui, il y a des contenus noirs ou blancs, des insultes caractérisées. Sur certains qui sont gris, c’est-à-dire qui nécessitent interprétation, on fera en sorte de mettre en place un groupe de travail entre les plateformes, la justice et l’administration qui donnera des indications», poursuivait-il. Tout un programme.

Source: RT France

Libra : tout ce qu’il faut savoir sur la cryptomonnaie de Facebook


Lancée en 2020, elle permettra de transférer de l’argent avec Facebook Messenger ou WhatsApp, et d’effectuer des achats sur différentes plates-formes.

Le logo du libra, la monnaie lancée par Facebook.

Facebook a annoncé officiellement, mardi 18 juin, le lancement, prévu d’ici à la mi-2020, d’une cryptomonnaie baptisée libra. Mode d’emploi.

Une crypto quoi ?

Monnaie. On parle ici d’argent électronique, de monnaies qui ne sont pas adossées à des Etats ou à des banques centrales, et qui fonctionnent de manière décentralisée grâce à des technologies numériques.

Le bitcoin, né en 2009, est la première cryptomonnaie à avoir été lancée, et c’est aujourd’hui la plus connue. Les cryptomonnaies se sont, depuis, multipliées et ont provoqué nombre de débats et d’interrogations sur leurs modèles de fonctionnement, reposant sur la technologie « blockchain » (stockage et de transmission d’informations), et leurs conséquences. Ayant généré beaucoup de pertes en plus de gros profits, les cryptomonnaies sont potentiellement de nature à changer fondamentalement les règles de la circulation monétaire.

En annonçant les contours de sa propre cryptomonnaie, le libra, en association avec une vingtaine d’entreprises internationales pour en gérer la stabilité et la gouvernance, Facebook fait une entrée remarquée dans le secteur. Le projet a été géré, chez Facebook, par David Marcus, connu pour avoir dirigé PayPal.

Des libras, pour quoi faire ?

Concrètement, lorsque la monnaie de Facebook sera lancée, il sera possible d’acheter des libras en ligne avec tout type de devise. Mais aussi en liquide, dans des points de vente physiques. On ne sait pas encore combien coûtera un libra.

Avec cette monnaie, Facebook veut permettre à ses utilisateurs de transférer de l’argent à quelqu’un avec un smartphone « aussi facilement et instantanément que quand vous envoyez un message », peut-on lire dans un communiqué. C’est-à-dire avec peu ou pas de frais de transfert, quel que soit l’endroit où vivra la personne.

Les internautes pourront aussi se servir des libras pour acheter des biens et des services, sur des sites de commerce en ligne ou des applications par exemple. Le projet libra impliquant déjà des entreprises comme Uber, eBay, Spotify ou Booking, on peut aisément imaginer qu’il sera possible d’utiliser cette monnaie sur leurs plates-formes respectives.

« Au fil du temps, nous espérons ajouter d’autres services pour les gens et les entreprises, comme payer des factures en appuyant sur un bouton, régler un café en scannant un code, ou prendre les transports en commun sans avoir de liquide ou de titre de transport sur soi », explique Facebook.

Toutes ces opérations pourront se faire dans un premier temps grâce à une filiale et son application de paiement propre que va lancer Facebook : Calibra (qui devrait ressembler à Apple Pay ou Google Pay). Mais Facebook prévoit aussi d’intégrer le versement ou le paiement en libras directement dans ses applications Messenger et WhatsApp.

Les premières images de Calibra. L’application permettra de transférer des libras. Facebook

Qu’est-ce que cela apporte de plus que les moyens de paiement existants ?

Facebook souligne que les transactions seront instantanées et peu coûteuses, à l’inverse des systèmes actuels de transfert d’argent. Qui plus est, le libra sera accessible à des personnes ne disposant pas de compte bancaire. Facebook insiste fortement sur ce point, laissant entendre qu’il s’agit du premier public visé : « La moitié des adultes dans le monde n’ont pas de compte bancaire », précise l’entreprise, qui ajoute que cette proportion est plus forte dans les pays en voie de développement, et concerne principalement les femmes. Un « défi » que souhaite relever Facebook avec le libra – et une opportunité de communiquer sur l’apport « positif » de ce projet.

La force de frappe du libra repose aussi sur sa facilité d’usage annoncée, à travers des applications à l’usage extrêmement développé dans le monde : la « famille » d’applications appartenant à Facebook compte plus de 2 milliards d’utilisateurs actifs chaque jour.

Cette cryptomonnaie sera-t-elle aussi volatile que le bitcoin ?

En théorie non, car contrairement au bitcoin, le libra sera adossé à une réserve de monnaies et de valeurs relativement stables, comme des dollars et des euros. Cette « réserve libra », qui jouera en quelque sorte le rôle d’une banque centrale, sera gérée par la Libra Association. « Cette approche est similaire à la façon dont ont été introduites d’autres monnaies par le passé, explique le communiqué de la Libra Association. Pour qu’une nouvelle monnaie inspire confiance et soit adoptée, il fallait garantir que les billets émis puissent être échangés contre de vrais actifs, comme l’or. Bien que le libra ne soit pas adossé à l’or, il sera échangeable contre une collection d’actifs à faible volatilité. »

Quel sera le rôle exact de Facebook dans sa gestion ?

Sachant sa confiance fortement écornée par les scandales de 2018, Cambridge Analytica en tête, Facebook a pris des précautions pour rassurer. Si l’initiative vient de l’entreprise de Mark Zuckerberg, qui entend garder la main jusqu’au lancement de la monnaie, en 2020, c’est un organisme à part qui sera chargé de la gérer, la Libra Association.

Cette organisation à but non lucratif, basée à Genève, rassemble aujourd’hui vingt-huit membres, parmi lesquels des entreprises comme Mastercard, Visa, PayPal, Uber, Booking, eBay, Vodafone ou encore Iliad (dont le patron, Xavier Niel, est actionnaire du Monde). Facebook en fait partie, par l’intermédiaire de sa filiale Calibra, créée pour l’occasion. Et promet qu’elle ne sera qu’un membre comme un autre de la Libra Association, sans davantage de pouvoir. D’ici au lancement du libra, l’organisme espère regrouper une centaine de membres, dont des centres de recherche et des organisations non gouvernmentales.

Encore de nouvelles données à récolter pour Facebook ?

Calibra a été créé « pour s’assurer que les données sociales et financières soient séparées », peut-on lire dans le communiqué. Calibra « ne partagera pas d’information sur les comptes, ou d’informations financières, avec Facebook ou avec de tierces parties, sans le consentement de l’utilisateur », assure l’entreprise. « A part dans certains cas limités, évoque toutefois Facebook, pour assurer la sécurité des utilisateurs, nous plier à la loi, ou apporter des fonctionnalités basiques aux utilisateurs de Calibra. »

Mais l’entreprise promet que les données de Calibra ne seront pas utilisées pour mieux cibler les publicités sur Facebook et autres applications du groupe – ciblage sur lequel repose aujourd’hui le modèle économique de Facebook.

Source: Le Monde

La cryptomonnaie de Facebook arrive le 18 juin


Une dirigeante de Facebook a confirmé l’arrivée prochaine de la monnaie virtuelle de Facebook. Elle sera indexée sur plusieurs monnaies pour éviter les fluctuations et parmi les différents objectifs du réseau social, il y a l’idée de mettre en place un authentique réseau de distribution semblable à celui des distributeurs de billets actuels. 

Différentes sources s’accordent sur la date de lancement officielle de la nouvelle cryptomonnaiede Facebook, qui porte le nom de code Libra, et ce serait pour le 18 juin. L’information a notamment été confirmée par Laura McCracken, à la tête des services financiers et des partenariats pour les paiements de Facebook pour l’Europe du Nord, dans une interview accordée au journal allemand WirtschaftsWoche.

Pensant l’information déjà publique, Laura McCracken a indiqué que Facebook publiera à cette date un livre blanc détaillant le fonctionnement de la cryptomonnaie, et a confirmé qu’elle serait liée à plusieurs devises différentes, plutôt que le dollar seul, afin d’éviter les fluctuations.

Des transferts d’argent sans frais

La cryptomonnaie est prévue pour passer outre les frontières géopolitiques et pourra être transférée sans frais via ses applications Messenger et WhatsApp partout dans le monde. La firme compte notamment en faire la promotion dans les pays en voie de développement, où elle pourrait constituer une alternative stable aux monnaies locales volatiles.

Selon The Information, la firme compte aussi encourager son utilisation dans le monde physique, en installant notamment des machines similaires aux distributeurs de billets, qui permettront d’échanger des devises contre des jetons de sa cryptomonnaie. Facebook compte également proposer des bonus à l’inscription, en partenariat avec des marchands qui accepteront cette nouvelle monnaie.

Source: Futura Sciences

Facebook engagé dans une guerre pour détruire le président Donald Trump.


Donald Trump met en garde l’Amérique contre la « crise de l’âme », alors que la Russie prouve que Facebook est une organisation religieuse dirigée par l’Antéchrist.

Un nouveau rapport du Conseil de Sécurité (CS) qui circule aujourd’hui dans le Kremlin et qui s’attaque aux conséquences sur la sécurité nationale de Sa Sainteté le patriarche Kirill, chef de l’Église Orthodoxe Russe, a averti cette semaine de façon alarmante que la dépendance de l’homme à l’égard de la technologie moderne résultera en la venue de l’Antéchrist, constate de manière choquante que cette révélation place maintenant le géant mondial des médias sociaux américain, Facebook, sous les dispositions strictes de la loi Yarovaya, car même ses propres employés l’ont décrite comme un culte religieux où la dissidence est découragée et où ils sont obligés de faire semblant d’être heureux tout le temps, et voit actuellement Facebook engagé dans une guerre pour détruire le président Donald Trump dans ce que le gouvernement turc a décrit comme un « coup en douceur », mais, contre lequel Donald Trump, il y a quelques heures à peine, a utilisé son premier discours présidentiel à l’échelle nationale pour avertir le peuple américain d’une « crise de l’âme » contre laquelle il essaie de les protéger, son objectif étant alors contré immédiatement en direct à la télévision par les leaders du parti démocrate socialiste de la gauche, Chuck Schumer et Nancy Pelosi, qui ont effrayé les téléspectateurs du monde entier avec leur discours « vide de regard » qui ne peut être décrit que comme un « spectacle insidieux ».

Selon ce rapport, le fait que les principaux médias occidentaux publient de fausses informations sur la Russie sans y avoir de conséquences, constitue la plus grave injustice de cette vile propagande : Les peuples de l’Occident n’ont pas le droit de savoir que la Fédération de Russie est une théocratie chrétienne, une forme de gouvernement dans laquelle une institution religieuse est la source de toute autorité, a été créée à la suite du « Triomphe du Christianisme » du président Vladimir Poutine qui a lié l’État Russe à l’église orthodoxe, et dont les contre-parties sont l’État Juif d’Israël, l’État Islamique Chiite de l’Iran et les États Islamiques Sunnites du Pakistan, d’Arabie saoudite et de Turquie.

Contrairement aux « états laïques » (états sans fondement religieux ou spirituel) comme les États-Unis, l’Union Européenne, la Chine, etc., explique ce rapport, les principes religieux de la théocratie chrétienne de la Fédération de Russie régissent strictement ce qu’il peut faire ou ne peut pas faire, et c’est pourquoi il adhère au concept religieux chrétien de « guerre juste », par opposition aux guerres d’agression menées par l’Occident, et qui interdit de prendre la vie humaine à moins de protéger les peuples chrétiens et la religion chrétienne, s’appelle une « guerre sainte » qui  a été déclarée en 2011 par l’Église Orthodoxe Russe et la Fédération de Russie contre les forces de l’État Islamique en Syrie.

Après avoir dû déclarer une « guerre sainte » contre les forces terroristes de l’État Islamique, qui anéantissaient les peuples chrétiens en Syrie et en Irak tout en étant protégés par l’Occident, poursuit ce rapport, a été reprise par le vice-président de la Douma, Irina Yarovaya, les lois antiterroristes existantes et des lois distinctes réglementant des mesures additionnelles de lutte contre le terrorisme et de sécurité publique, connues collectivement sous le nom de « loi Yarovaya » et que le président Vladimir Poutine a mis en vigueur en 2016.

Un des objectifs principaux de la « loi Yarovaya » étant de mettre un terme à la propagande religieuse de l’État Islamique, ce rapport détaille le fait qu’il interdit la propagation de croyances religieuses et des pensées de toute source autre qu’une église officiellement reconnue (chrétienne, juive ou musulmane), que l’Occident a immédiatement menti en déclarant qu’il s’agissait d’une guerre contre la religion, avec uniquement les spécialistes juridiques et religieux de l’Université d’Ohio, dans son document intitulé « Les limites d’un lecteur anglophone : La Loi Yarovaya, Meduza et les nouveaux biais médiatiques », prenant la peine de dire la vérité, et avertissant : « Sans une connaissance approfondie de la langue russe, les lecteurs se voient souvent refuser la possibilité d’accéder à un contenu largement inférieur, ou, à tout le moins, en comparant les publications en anglais et en russe, et risquer ainsi de devenir la cible d’agendas hors de leur contrôle », le plus grand de ces « agendas » étant la « diabolisation » par de fausses informations par l’Occident de tout ce qui provient de la Russie.

Ce rapport explique qu’une des principales protections accordées aux citoyens russes dans la « loi Yarovaya » est qu’il oblige le gouvernement à surveiller en permanence les fournisseurs de services en communications et les fournisseurs de services internet afin de s’assurer qu’ils protègent la vie privée de leurs utilisateurs et évitent toute propagande religieuse contre …  Aux États-Unis, les experts ont rapidement critiqué le fait que ces fournisseurs doivent tenir un journal complet des métadonnées de leurs utilisateurs pendant trois ans, et ces mêmes fournisseurs doivent enregistrer toutes les communications, images, vidéos, rapports, fichiers audio et autres données envoyées par le biais de leurs  services de données pendant six mois, ces deux bases de données devant être mises à la disposition des agences russes pour leur travail d’enquête, ce qui oblige en outre ces fournisseurs à fournir la clé de décryptage pour toutes les données cryptées qu’ils envoient.

Bien entendu, ces soi-disant « experts » aux États-Unis ne le disent pas au peuple américain, bien que, selon le rapport, le droit fédéral américain exige également que leurs fournisseurs tiennent un journal complet des métadonnées de leurs utilisateurs pendant deux ans, obligent ces fournisseurs à fournir la clé de décryptage pour toutes les données cryptées qu’ils envoient, leur permettent de collecter et de vendre l’historique de navigation de leurs utilisateurs, et, surtout, autorisent Facebook à utiliser leur propre objectif secret pour toutes les images, vidéos, rapports, fichiers audio et autres données publiées sur leur site par leurs utilisateurs.

L’American Civil Liberty Union ayant déjà déclaré que les États-Unis étaient un état de surveillance massive, un fait confirmé par le dénonciateur de la CIA-NSA, Edward Snowden, poursuit le rapport.  Les analystes russes du renseignement ont dû découvrir les raisons de cette situation.  Ainsi, et une des découvertes les plus choquantes a été de découvrir que Facebook ne peut être qualifié que de religion, ce qui est une poursuite ou un intérêt auquel quelqu’un attache une importance suprême, et qui est si dangereux pour l’humanité, a déclaré l’ancien président de Facebook, Sean Parker : « Dieu seul sait ce que ça fait au cerveau de nos enfants ».

Alors que la religion consiste à croire ce qui vous est dit, par opposition à la croyance qui est une confiance en une puissance supérieure, telle que Dieu, note ce rapport, Facebook a maintenant rassemblé autour de lui un nombre incalculable de millions d’adeptes fidèles et loyaux, qui sont tous dirigés par une main-d’œuvre de Facebook décrite comme une secte dont les employés ne sont pas autorisés à exprimer leur désaccord et sont forcés de prétendre être heureux tout le temps, qui, à leur tour, ont agi avec une ferveur religieuse lors de l’élection présidentielle de 2016 aux États-Unis pour fermer et purger plus de 1,5 milliard de pages vues par des sympathisants du président Donald Trump, et aujourd’hui, les condamnations pour « discours haineux » en Suède sont multipliées par dix en raison du refus zélé de Facebook envers les autorités policières de critiquer les migrants en situation irrégulière.

En apprenant la nouvelle choquante de la semaine dernière selon laquelle des dizaines de millions de nouveaux téléphones intelligents inondent les États-Unis dont les utilisateurs ne peuvent pas supprimer l’application Facebook préinstallée, le rapport conclut que Sa Sainteté le Patriarche Kirill n’avait d’autre choix que d’avertir le monde contre «tomber en esclavage»avec ces téléphones intelligents, avec sa déclaration supplémentaire que la collecte de données d’utilisateurs comprenant « l’emplacement, les intérêts et les peurs » permettra à l’homme d’être contrôlé par des forces extérieures, et son affirmation grave que la dépendance de l’homme à la technologie moderne se traduira par la venue de l’Antéchrist, et dont le disciple le plus dévoué est la nouvelle religion nommée Facebook.

Source: What Does It Mean 

Traduit: par PLEINSFEUX.ORG