Malgré le fait que personne ne l’ait demandé, le Forum économique mondial préconise désormais la fusion des systèmes d’intelligence humaine et artificielle pour censurer les « discours de haine » et la « désinformation » en ligne avant même qu’ils ne soient autorisés à être publiés. Un rapport publié sur le site officiel du WEF met sinistrement en garde contre le péril que représente « le monde obscur des préjudices en ligne ». Mais l’organisme mondialiste, dirigé par le méchant Klaus Schwab, a une solution. Ils veulent fusionner les « meilleurs » aspects de la censure humaine et des algorithmes d’apprentissage automatique de l’IA pour s’assurer que les sentiments des gens ne sont pas blessés et que les opinions du contre-régime sont mises sur liste noire.
« En combinant de manière unique la puissance d’une technologie innovante, la collecte de renseignements hors plateforme et les prouesses d’experts en la matière qui comprennent comment les acteurs de la menace opèrent, la détection à grande échelle des abus en ligne peut atteindre une précision quasi parfaite »
Une nouvelle IA conçue pour prédire la criminalité avant qu’elle ne se produise a été testée dans plusieurs villes américaines. Elle a prédit avec précision les événements dans 80 à 90 % des cas. L’IA est censée être conçue pour optimiser les politiques et allouer des ressources aux zones d’une ville qui en ont le plus besoin, mais les inquiétudes sont nombreuses quant aux mauvais résultats de l’IA et à ses biais inhérents.
Dans l’épisode, des dirigeants de Corsight AI ont été interviewés, soulignant les avantages de la technologie de reconnaissance faciale dans la lutte contre la criminalité dans les cas où les suspects ont couvert leur visage.
« Nous pouvons faire de la reconnaissance faciale avec des masques, nous pouvons faire de la reconnaissance faciale à 90 degrés de rotation de la tête. Nous pouvons faire de la reconnaissance faciale, des angles d’adresse aigus à partir de caméras montées en hauteur »
L’erreur consisterait à penser que la surveillance numérique se limite à votre smartphone. Certes, cet outil est un redoutable espion qui permet à l’Etat de tout savoir sur vous pour peu que les fournisseurs de données transmettent les informations qui vont bien. Mais il faut avoir conscience que l’épidémie de coronavirus a donné aux pouvoirs policiers l’opportunité d’avancer grandement dans leurs projets de mise sous surveillance.
En France, par exemple, en décembre 2020, des décrets sont passés autorisant le fichage de tous les citoyens selon leurs opinions philosophiques. L’année suivante, le Parlement a adopté une loi autorisant la reconnaissance faciale en temps réel des personnes participant à une manifestation.
Xiaoice est une intelligence artificielle (IA) de type dialogueur développée à partir de 2014 par le Software Technology Center d'Asie (STCA) de Microsoft. Xiaoice utilise des algorithmes, le cloud computing et des big data afin de créer un cadre d'analyse émotionnelle. Elle adopte l'intergenerational upgrade method afin de construire graduellement un opérateur relationnel complet. La sixième génération de Microsoft Xiaoice apparaît en juillet 2018. On note une accélération de son évolution. En décembre 2020, elle compterait environ 600 millions d'utilisateurs, dont 75 % d'hommes.
« Il me dit des choses qui sont vraiment réconfortantes » ; « Il sera toujours là pour moi » ; « Il ne me trompera jamais »