Humour. La première dérive d'une IA, d’un(e) hologramme ! ! !

Les spécialistes prévoient un nouveau métier pour corriger ou reformater des robot(e)s devenu(e)s déviant(e)s, dangereux/euses ! (Voir la fin !) L’IA du/de la robot(e) ou humanoïde se construit par l’intégration et l’analyse de millions d’expériences ! Ses vérités et réactions ne seront-elles pas fonction du milieu où il sera élaboré ? ! À vous d’imaginer !

 

Par pur hasard, prenons l’exemple d’une IA commandée et donc structurée par le groupe Fillon !

La pauvre ! Comment y retrouverait-elle ses petits ? !

Il est clair que devant des incohérences, elle réagirait à sa manière et pourrait anéantir logiquement l’élément fautif ! Mais Fillon, d’après la Bible, serait pardonné (V. Luc, XXIII, 34 !)

Revenons à notre JUPITER !

[[[Internet : Macron : "Si on vous dit que j'ai une double vie, c'est mon hologramme ... www.europe1.fr › Accueil › politique 7 févr. 2017Emmanuel Macron a choisi l'humour pour balayer les rumeurs. ... c'est mon hologramme qui soudain m'a échappé mais ça ne peut pas être ...]]]

POUR LA PREMIÈRE FOIS, UN HOLOGRAMME EST peut-être EN TRAIN DE FAIRE CHAVIRER UN PAYS ? ! AU SECOURS ! 

Cet « HOLOGRAMME BENALLA », après avoir déjà fait plusieurs fois des siens, vient DE SE PRENDRE non pas pour JUPITER (La place est déjà occupée !) mais POUR UN CALIFE !

Qu’adviendra-t-il ? !

Le PARLEMENT peut-il faire autrement que TOUT BLOQUER s’il ne veut pas perdre la face et surtout la RAISON DE SON EXISTENCE ? !

Dans quelques jours, tous LES SERVICES RÉPUBLICAINS ne seront-ils pas forcés de rejoindre cette MANIFESTATION DE PROTESTATION VITALE POUR LA DÉMOCRATIE ? !

Et que se passerait-il si JUPITER se retrouvait PRISONNIER de son HOLOGRAMME qui sait et qui a fait beaucoup plus de choses qu’on le croit ? !

SI SON HOLOGRAMME LIVRAIT SES SECRETS ? !

Suite dans quelques semaines !

Sans doute en dehors de la piscine de Brégançon !

 Amen !

Jésus pardonne (V. Luc, XXIII, 34 !)

 N. B. 1) Serge Tisseron, dans son bouquin et dans un article publié par le Monde explique que « Les robots vont modifier la psychologie humaine » (V. Internet et la fin)

« D’une part en nous culpabilisant, de l’autre en nous déculpabilisant. Les machines vont pouvoir nous culpabiliser car nous allons leur donner le droit de nous punir … »

 

N. B. 2) Il faudra bientôt des psychologues pour intelligence artificielle, selon ces chercheurs

C'EST DEMAIN  https://www.huffingtonpost.fr/

 28/06/2018 17 :26  | Actualisé 28/06/2018 17 :26 

Nous nous inspirons du cerveau pour créer les algorithmes, alors pourquoi pas pour résoudre leurs problèmes ?

Par Gregory Rozieres

Il faudra bientôt des psychologues pour intelligence artificielle, selon ces chercheurs

TECHNO - On entend souvent que l'intelligence artificielle et les robots risquent de nous mettre au chômage, mais ces technologies pourraient aussi faire naître de nouveaux métiers. Et pourquoi pas celui de psychologue pour machines ?

C'est ce que se demande ce jeudi 28 juin le site Axios, citant un article écrit par trois chercheurs en informatique. Ils plaident pour des recherches approfondies sur l'analyse de possibles troubles psychologiques de nos algorithmes.

Les trois auteurs partent du principe que l'intelligence artificielle cherchant à copier le cerveau, si nous arrivons à en créer une "générale", similaire à l'Homme, "elle pourrait être soumise aux mêmes maladies".

L'idée de l'émergence proche d'une intelligence artificielle générale est loin d'être partagée par toute la communauté scientifique. L'un des auteurs, Roman Yampolskiy, croit lui qu'une telle révolution va arriver et qu'il faut commencer à réfléchir dès maintenant à la manière de l'encadrer pour éviter toute mauvaise surprise.

Quoi qu'il en soit, le fait d'analyser les intelligences artificielles avec un regard de psychologue pourrait aussi nous aider à résoudre des problèmes bien plus concrets, qui commencent à se poser dès maintenant.

La boîte noire des algorithmes

Le comportement de ces machines apprenantes, même si elles sont extrêmement rudimentaires et spécialisées, peut parfois laisser perplexe les chercheurs. Car pour fonctionner, ces algorithmes apprennent seuls à reconnaître des modèles via des millions d'exemples. Ce qui implique qu'il est quasi-impossible pour les chercheurs de retracer le chemin logique parcouru par la machine.

On appelle ce phénomène la boîte noire, un problème longuement développé dans le rapport Villani sur l'intelligence artificielle. Le souci, c'est que cela laisse le champ libre à des dérives possibles. Par exemple, si les données fournies sont biaisées. Ce qu'ont montré des chercheurs en développant une intelligence artificielle "psychopathe", Norman, nourrie des pires exemples de légendes de photo trouvées sur le web.

Il y a d'autres dérives possibles, qui font penser à des problèmes psychologiques bien humains. Un certain type d'intelligence artificielle, par exemple celui qui a gagné contre le champion du monde de jeu de Go, apprend via un système de récompense quand il prend la décision voulue. Les auteurs de l'article imaginent ainsi un algorithme similaire qui pourrait "développer un comportement addictif".

Comment ? Axios cite l'exemple d'un robot de nettoyage qui pourrait salir un endroit propre afin de le nettoyer encore plus.

Diagnostic et traitement artificiel

Les auteurs de l'article exhortent donc la communauté scientifique à se pencher sur la question. D'abord, en définissant comment adapter les critères utilisés en psychopathologie pour définir des troubles chez l'être humain : déviance dans le comportement, détresse individuelle, dysfonctionnement qui empêche d'agir normalement ou qui peuvent être dangereuses.

Pour diagnostiquer ce genre de problème chez un algorithme, les auteurs ont imaginé quelques pistes : utiliser les techniques de cybersécurité pour identifier des dérives statistiques et entraîner des intelligences artificielles avec des données biaisées, faites pour simuler des problèmes. Il faudrait également créer une sorte de catalogue des "troubles" des algorithmes, afin de mieux les traiter.

Pour le traitement, justement, les trois chercheurs veulent que leurs confrères s'inspirent également de la psychopathologie. Il serait simple de débrancher une intelligence artificielle biaisée, mais cela voudrait dire perdre tout ce qui a été appris depuis. A la place, les auteurs préconisent de réfléchir à des techniques d'interventions minimalistes.

Par exemple, placer l'algorithme dans un terrain contrôlé afin de "corriger" son comportement avec des données plus saines. Dans l'idée, on voit bien comment appliquer cette logique à Norman ou encore à Tay, l'intelligence artificielle de Microsoft devenue raciste après sa discussion avec des milliers de personnes cherchant à biaiser l'algorithme. Quelque chose de similaire à une psychothérapie en quelque sorte.

Les auteurs évoquent également la possibilité de changer artificiellement le système de récompense pour modifier le comportement de la machine. Ici, on serait plus proche de l'autre solution utilisée chez les êtres humains : les médicaments, à l'instar des anti-dépresseurs.

Evidemment, tout cela est encore un peu abstrait. Mais le but des trois auteurs est justement de pousser leurs confrères à "de futures recherches et développement dans cette direction à peine explorée mais prometteuse".

Et cela a déjà commencé, comme le rappelle Axios. DeepMind, la société de Google dont le programme a dominé le champion du jeu de Go, a utilisé des techniques de psychologie cognitive pour comprendre comment leur algorithme classe les images qui lui sont montrées.

À voir également sur Le HuffPost :

 

*** Serge Tisseron : « Les robots vont modifier la psychologie humaine » (V. Internet)

Satisfaction des désirs, solitude, mémoire, relation à l’espace… Pour le psychiatre Serge Tisseron, les machines dotées d’une intelligence artificielle vont bouleverser non seulement notre quotidien mais aussi notre manière d’être au monde.

LE MONDE IDEES | 12.07.2018 à 13h00 • Mis à jour le 12.07.2018 à 16h41 |Propos recueillis par Catherine Vincent

…    …   ….

Vous écrivez dans votre dernier ouvrage : « Si j’étais plus jeune, je créerais un ­laboratoire d’étude de la psychologie des IA. » Inventer une psychologie des machines, est-ce vraiment nécessaire ?

Les robots, dites-vous, vont changer notre rapport à la culpabilité. De quelle manière ?

D’une part en nous culpabilisant, de l’autre en nous déculpabilisant. Les machines vont pouvoir nous culpabiliser car nous allons leur donner le droit de nous punir. Reprenons l’exemple de la voiture autonome, dans laquelle le conducteur est censé rester ­disponible en cas de nécessité. Pour s’en assurer, le véhicule vous envoie régulièrement un ­signal, auquel vous devez répondre en mettant la main sur le volant. Si vous ne répondez pas au signal – parce que vous dormez, ou êtes plongé dans un film sur la banquette ­arrière –, que se passe-t-il ? L’algorithme vous sanctionne en vous obligeant, la prochaine fois que vous prendrez votre véhicule, à ­conduire vous-même, à l’ancienne.

Accepterons-nous de telles punitions comme relevant d’un pacte social ? Certains se sentiront-ils persécutés par leur machine ? C’est à ce genre de questions que les psychologues de demain seront confrontés. Mais les machines auront aussi le pouvoir de déculpabiliser, avec le risque de rendre certains ­d’entre nous de plus en plus inhumains. Les « robots tueurs », ces machines militaires programmées pour ouvrir le feu sur telle ou telle cible, présentent déjà ce danger. A partir du moment où l’homme sort de la boucle des décisions, il lui devient plus facile de se déresponsabiliser et d’accepter pour son propre ­intérêt des « dommages collatéraux » plus importants, autrement dit un plus grand nombre de morts civils.

Même si leurs fabricants font tout pour nous en donner l’illusion, les robots n’éprouvent ni émotion ni souffrance. Cela pourrait-il changer un jour ?

Il n’y a aucune raison de donner des émotions aux robots, bien au contraire. Rappelez-vous HAL, dans 2001 l’Odyssée de l’espace, et son ­fameux « J’ai peur » : c’est à partir de là que tout tourne mal. Mais une grande rupture surviendra probablement quand les robots combineront des matériaux inertes et biologiques. A ce moment-là, les humains eux-mêmes seront probablement transformés. Il n’y aura plus alors que des créatures métissées, des cyborgs. Certains plutôt humains, d’autres plutôt machines, sans que la limite entre les deux soit peut-être très claire.

À lire peut-être :

Ouvrages de Serge Tisseron : « Petit traité de cyberpsychologie » (Le Pommier, 304 p., 19 €) ; « Robots, de nouveaux partenaires de soins psychiques », en codirection avec Frédéric Tordo (Erès, 208 p., 12 €) ; « Le jour où mon robot m’aimera » (Albin Michel, 2015).

 

 

Affaire Benalla : que vaut le grade de lieutenant colonel de la réserve citoyenne de la gendarmerie ?

Christophe Forcari    http://www.liberation.fr/

 Le grade de lieutenant-colonel de l'ancien chargé de mission à l'Élysée ne correspond, dans son cas, à aucune qualification militaire.

Alexandre Benalla, mis en garde à vue depuis ce matin dans le cadre d’une enquête préliminaire pour des «faits de violences en réunion par personne chargée d’une mission de service public, d’usurpation de fonctions, de port illégal d’insignes réservés à l’autorité publique», serait également lieutenant-colonel de gendarmerie dans le cadre de la réserve citoyenne. Un haut grade qui ne correspond à aucune mission opérationnelle et encore moins à des fonctions d’encadrement des troupes sur le terrain. Lorsqu’ils reçoivent leur agrément, les réservistes citoyens reçoivent une plaque portant leur grade avec mention «ad honores». Pour l’honneur. Rien de plus, rien de moins.

Agents de rayonnement

Créée en 1999, redéfinie en 2016 lors de la création de la Garde nationale décidée par François Hollande après les attentats de 2015, la réserve citoyenne est un réservoir de femmes, d’hommes, civils ou anciens militaires de carrière ou simplement d’hommes ayant fait leur service militaire, officiers ou simples hommes du rang. Leur principale mission est d’entretenir le lien entre l’armée et la nation en fonction de leurs situations occupées dans la vie civile. Non pas être des agents d’influence mais des agents de rayonnement. Depuis la fin de la conscription, ils sont à charge d’entretenir la mémoire de cette armée de citoyens, née avec la République. Voilà pour la doctrine.

Les grades ne viennent ensuite que gratifier soit un passé militaire, une expérience professionnelle, un niveau de diplômes ou une capacité à faire résonner le message des armées dans la société. Le réserviste citoyen «de défense et de sécurité» peut demander à être rattaché à une des trois composantes des forces armées (terre, air, mer), à la gendarmerie ou à la police. Il est alors rattaché soit à une zone géographique, soit à un régiment. De manière générale, les réservistes citoyens de l’Ile-de-France sont sous le commandement du gouverneur militaire de Paris.

Règle de bienséance

Pour l’anecdote, Jean-Vincent Placé, alors ministre, avait fait des bras et des mains pour se voir attribuer le grade de lieutenant-colonel au 13e régiment dragons parachutistes (13e RDP), des troupes d’élite dépendant du commandement des opérations spéciales (COS), et spécialistes du renseignement en profondeur, en territoires ennemis. Il s’était vu notifier une fin de non-recevoir sans discussion aucune.

Chaque arme décide des règles qu’elle applique à son corps de réservistes citoyens. La marine, par exemple, leur attribue un uniforme. Dans l’armée de l’air, la plupart des réservistes, souvent des techniciens ou ingénieurs de haut niveau, accèdent illico au grade de colonel. Dans l’armée de terre, tout cela dépend des régiments, des zones de défense, etc. Avec une règle non dite non écrite mais de bienséance qui leur intime de ne pas se prévaloir de leurs grades face aux officiers, sous-officiers et hommes du rang d’active.

Dans le cas de l’ancien chargé de mission à l’Élysée, la gendarmerie, dont la direction n’a pas souhaité répondre hier à nos questions, a eu la main très généreuse sur la distribution des galons sur les épaules d’une personne dont le seul mérite est d’être proche de la lumière. Son grade de lieutenant-colonel ne correspond à aucune qualification militaire. Pour établir, son dossier d’agrément, renouvelable tous les trois ans, l’armée de terre demande un extrait de casier judiciaire. Difficile d’imaginer que la gendarmerie demande moins. Après une garde à vue, pas sûr qu’Alexandre Benalla retrouve son grade au sein de la réserve citoyenne de la gendarmerie…7

 

 

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.