Overblog
Suivre ce blog Administration + Créer mon blog
23 octobre 2021 6 23 /10 /octobre /2021 08:03

Les robots aussi peuvent avoir des problèmes judiciaires.

C'est ainsi que le robot artiste humanoide Ai-Da s'est fait arrêter à son arrivée au Caire, alors qu'elle devait participer à une exposition à la Grande Pyramide de Gizeh pour présenter sa dernière oeuvre.

En raison de « problèmes de sécurité » et sur des accusations d'espionnage, Ai-Da et sa sculpture ont été retenues à la douane égyptienne pendant 10 jours avant d’être libérées le 20 octobre 2021, déclenchant un tourbillon diplomatique.

Selon son concepteur Aidan Meller, les gardes-frontières ont arrêté Ai-Da  parce qu’elle est dotée d'un modem et qu’elle avait des caméras dans les yeux, qu’elle utilise pour dessiner et peindre.

Ai-Da est en effet capable de sculpter grâce à une main spécialement conçue et à des algorithmes développés par des chercheurs d’Oxford et de l’Université de Leeds. L’algorithme convertit les images qu’Ai-Da capture avec ses yeux de caméra en coordonnées spatiales réelles, et ces données sont ensuite réutilisées sous la forme de ses dessins. Et, parce que ses créateurs lui ont permis d’analyser les couleurs et les techniques utilisées par les artistes humains, Ai-Da peut également peindre.

Ai-Da et sa sculpture avaient été envoyées de Londres par fret aérien au Caire avant l’exposition Forever Is Now, qui se déroule jusqu’au 7 novembre 2021 et est présentée par le cabinet de conseil Art D’Égypte en partenariat avec le ministère égyptien des Antiquités et du Tourisme et le ministère égyptien des Affaires étrangères. L’exposition présente des œuvres d’artistes égyptiens et internationaux de premier plan.

La sculpture de 2 x 2,5 mètres d’Ai-Da est un jeu sur l’énigme du sphinx – " Qui est sur quatre pieds le matin, deux pieds à midi et trois pieds le soir ?" – la réponse étant bien entendu "un humain".

Mais les conditions de détention du robot ont été pour certains considérées comme inhumaines !

En effet, la recharge électrique du robot n'a pas été autorisée et Ai-Da a ainsi été désactivée pendant sa détention, suscitant l'indignation des défenseurs des droits des robots qui relèvent que ce traitement est indigne.

Si on se souvient que le robot Sophia s'était vu octroyer la citoyenneté par l’Arabie Saoudite,  la question de la création de droits pour un robot est encore très embryonnaire.

Les tribunaux ont déjà eu l’occasion de se prononcer sur la création d’une œuvre, assistée par ordinateur et il a été jugé qu’une telle œuvre "peut être protégée par le droit d’auteur à condition qu’apparaisse l’originalité voulue par le concepteur". C’est donc la personne humaine derrière sa machine qui demeure titulaire des droits d’auteur, si l’œuvre a été créée avec l’assistance d’une intelligence artificielle.

Mais si, au contraire, l’IA est amenée à créer, elle-même, une œuvre originale, on ne peut aujourd’hui lui accorder des droits d’auteur car il faudrait faire ressortir de cette œuvre le critère d’originalité. Or, il apparaît pour le moins compliqué aujourd'hui de reconnaître à une IA qu’elle exprime sa personnalité dans une œuvre de l’esprit.

On comprend donc bien que nos régimes juridiques de droit d’auteur ne sont pas adaptés pour les créations réalisées par une intelligence artificielle.

Une autre  question  se pose au sujet de l’intelligence artificielle: celle de la détermination de la personne responsable en cas de litige.

Qui sera responsable si un robot agissant de manière autonome blesse une personne ou cause un dommage? Des voitures autonomes ont été à l’origine de plusieurs accidents mortels aux Etats-Unis récemment et cela conduit à s’interroger sur le régime juridique applicable. Or, il n’existe pas aujourd’hui de régime juridique propre à l’intelligence artificielle, et aucun fondement juridique n’y apporte de réponse spécifique.

D’où les débats sur la création d’une "personnalité robot" , préconisée de longue date par notre confrère Alain Bensoussan, puisque l'IA ne dispose pas de la personnalité juridique, ce qui interdit aujourd’hui toute possibilité d’indemnisation du dommage par le robot, qui ne dispose d’aucun patrimoine propre.

C’est pourquoi le Parlement européen avait demandé à la Commission, dans sa résolution du 16 février 2017, d’examiner "la création, à terme, d’une personnalité juridique spécifique aux robots, pour qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques responsables, tenues de réparer tout dommage causé à un tiers; il serait envisageable de conférer la personnalité électronique à tout robot qui prend des décisions autonomes ou qui interagit de manière indépendante avec des tiers".

Dans ses recommandations pour la création d’un droit civil des robots, le Parlement Européen avait proposé plusieurs solutions au titre de la responsabilité de l’intelligence artificielle et on retrouve:

- La mise en place d’une assurance obligatoire;

- La création d’un fonds de compensation afin d’indemniser les accidents provoqués par une intelligence artificielle (comme l’ONIAM pour les accidents médicaux);

- La création d’un numéro d’immatriculation pour faciliter l’identification des robots en leur attribuant un numéro propre;

- Et donc la consécration d’une personnalité juridique propre aux robots afin de créer des règles spéciales pour la mise en œuvre de leur responsabilité.

Ces propositions n'ont cependant pas été reprises dans le projet de cadre juridique concernant l'intelligence artificielle déposé le 21 avril 2021par la Commission européenne (voir notre article L'encadrement législatif européen de l'intelligence artificielle)

Au-delà du buzz, la question est donc bien de savoir si demain, les robots peuvent devenir des êtres juridiques à part entière avec des droits et des obligations, comme l’annonçait en 1942 l’écrivain américain Isaac Asimov auteur des lois de la robotique.

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article
Repost0
12 octobre 2021 2 12 /10 /octobre /2021 07:25

Le projet européen Roborder de surveillance aux frontières suscite des inquiétudes sur l'intensification de l'utilisation des intelligences artificielles pour traquer migrants, terroristes et clandestins, mais qui pourrait se révéler encore plus intrusive.

Ce  projet Roborder, expérimenté en Grèce, au Portugal et en Hongrie, prévoit de surveiller les frontières par des essaims de drones autonomes, fonctionnant et patrouillant ensemble. L’algorithme de ces drones leur permettrait de reconnaître les humains et de distinguer si ces derniers commettent des infractions ou mettent en danger la frontière.

Cette nouvelle expérimentation intervient après l'échec cuisant de l'expérimentation  iBorderCtrl qui  testait l’intelligence artificielle dans le but de débusquer les mensonges des passagers aériens lors des contrôles de sécurité, grâce à une analyse de leurs  micro-expressions.

Il s'agissait d'un véritable détecteur de mensonges profilé qui avait  été mis en place dans des aéroports grecs, lettons et hongrois.

Le projet était calqué sur les tests effectués au Canada en 2017 avec une IA capable de détecter les mensonges à partir des comportements physiologiques dans ses aéroports. Cette IA surnommée "Avatar" (pour Automated Virtual Agent for Truth Assessments in Real Time) pourrest supposée ainsi aider les douaniers à contrôler les voyageurs en cas de doute sur leur motivation à entrer dans l'Union européenne.

Si iBorderCtrl a été arrêté,  cela ne veut pas dire que d’autres expériences similaires ne sont pas  menées. Le programme Avatar, qui repose également sur la “reconnaissance des émotions”, est toujours actuellement testé en Roumanie et au Canada.

Pour sa part, l'Espagne envisage de déployer des drones pour surveiller sa frontière avec le Maroc à Melilla avec de nouvelles installations terrestres incluant scanners, vidéosurveillance et reconnaissance faciale.

On sait pourtant que le succès type de surveillance par drone est loin d'être garanti: l'emploi de Predators (des modèles à voilure fixe, dérivés des engins utilisés par l'armée) n'a par exemple guère fait progresser la lutte contre l'immigration clandestine entre le Mexique et les Etats-Unis, le pourcentage d'interpellations pouvant leur être directement imputé se situant entre 0,7 et 1,8 %.

Et comme d'habitude, ces projets sont muets quant au recueil des données biométriques, la conservation des données, leur durée de conservation, leur accès etc. qui ne semblent guère préoccuper les initiateurs de ces dispositifs très intrusifs.

Me Thierry Vallat est intervenu sur le sujet pour RT France le 12 octobre 2021.

(source: Aims & Objectives – Roborder)

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article
Repost0
9 octobre 2021 6 09 /10 /octobre /2021 10:03

Le Parlement européen a publié une résolution le 6 octobre 2021 concernant l'utilisation de l'intelligence artificielle en droit pénal.

Ce texte, qui n'a pas de valeur contraignante, a pour vocation d'inspirer la Commission dans le domaine du recours de l'intelligence artificielle en matière de sécurité et de surveillance, afin d'éviter toute discrimination par les services répressifs.

Cette résolution rappelle que le déploiement de l’IA dans les domaines répressif et judiciaire ne devrait pas être réduit à la simple question de la faisabilité technique, mais être davantage considéré comme une décision politique concernant la conception et les objectifs des systèmes répressifs et de justice pénale; que le droit pénal moderne repose sur l’idée que les autorités réagissent à une infraction après qu’elle a été commise, sans partir du principe que tous les citoyens sont dangereux et doivent être constamment surveillés afin de prévenir les actes répréhensibles potentiels; que les techniques de surveillance fondées sur l’IA remettent profondément en question ce raisonnement et qu’il est donc urgent que les législateurs du monde entier évaluent de manière approfondie les conséquences de l’autorisation de déploiement de technologies qui réduisent le rôle des êtres humains dans l’application des lois et les décisions de justice.

Le Parlement européen a notamment précisé sa position sur la reconnaissance faciale et son utilisation par les autorités judiciaires.

Il a exprimé sa vive inquiétude quant à l’utilisation, par les services répressifs et les services de renseignement, de bases de données privées de reconnaissance faciale, telles que Clearview AI, qui contient plus de trois milliards d’images collectées illégalement sur les réseaux sociaux et à d’autres endroits sur l’internet, y compris des images de citoyens de l’Union; invite les États membres à obliger les services répressifs à faire savoir s’ils utilisent la technologie de Clearview AI ou des technologies équivalentes d’autres fournisseurs.

Rappelant que le comité européen de la protection des données a estimé que l’utilisation d’un service comme celui-ci par les  autorités répressives dans l’Union «ne serait probablement pas compatible avec le régime de protection des données de l’Union», il appelle de ses vœux l’interdiction de l’utilisation des bases de données privées de reconnaissance faciale dans le domaine répressif.

La résolution réaffirme que l’utilisation des technologies de reconnaissance faciale doit au moins se faire dans le respect des exigences de minimisation des données, d’exactitude des données, de limitation du stockage, de sécurité des données et du principe de responsabilité, tout en étant légale, équitable et transparente, et en poursuivant un objectif spécifique, explicite et légitime, clairement défini dans le droit des États membres ou de l’Union; est d’avis que les systèmes de vérification et d’authentification ne peuvent continuer à être déployés et utilisés avec succès que si leurs effets négatifs peuvent être atténués et les critères susmentionnés respectés;

Il demande en outre l’interdiction permanente de l’utilisation de l’analyse et/ou de la reconnaissance automatisées, dans les espaces accessibles au public, d’autres caractéristiques humaines telles que la démarche, les empreintes digitales, l’ADN, la voix et d’autres signaux biométriques et comportementaux.

Le Parlement demande enfin  un moratoire sur le déploiement des systèmes de reconnaissance faciale à des fins répressives destinés à l’identification, à moins qu’ils ne soient utilisés qu’aux fins de l’identification des victimes de la criminalité, jusqu’à ce que les normes techniques puissent être considérées comme pleinement respectueuses des droits fondamentaux, que les résultats obtenus ne soient ni biaisés, ni discriminatoires, que le cadre juridique offre des garanties strictes contre les utilisations abusives ainsi qu’un contrôle et une surveillance démocratiques rigoureux, et que la nécessité et la proportionnalité du déploiement de ces technologies soient prouvées de manière empirique; relève que lorsque les critères susmentionnés ne sont pas remplis, les systèmes ne devraient pas être utilisés ou déployés.

Rappelons qu'en avril dernier, la Commission européenne a présenté une proposition de règlement sur le recours à la reconnaissance dans les espaces qui accueillent du public n'incluant pas les exigences du contrôleur européen à la protection des données sur les reconnaissance faciale.

Retrouvez la résolution du Parlement européen du 5 octobre 2021: 

Partager cet article
Repost0
5 juillet 2021 1 05 /07 /juillet /2021 06:14

L'émergence des véhicules autonomes fait évoluer le code de la route et le code des transports.

C'est ainsi qu'a été publié le 1er juillet 2001 le décret n° 2021-873 du 29 juin 2021 portant application de l'ordonnance n° 2021-443 du 14 avril 2021 relative au régime de responsabilité pénale applicable en cas de circulation d'un véhicule à délégation de conduite et à ses conditions d'utilisation

Les toutes premières voitures particulières équipées de systèmes de conduite automatisés arriveront très prochainement en Europe et en France. Dès septembre 2022, elles seront autorisées à rouler sur des parcours ou des zones prédéfinis.

Il s’agit de voitures dont le contrôle dynamique sera totalement délégué à un système de conduite automatisé, mais uniquement lorsque certaines conditions seront réunies. De tels véhicules pourraient être homologués pour circuler sur la voie publique avant la fin de l’année 2021. Les véhicules autonomes ne doivent pas être assimilés aux systèmes d’aides à conduite (régulateur adaptatif de vitesse par exemple).

Le premier système de ce type autorisé est le système automatisé de maintien dans la voie (dit ALKS pour Automated Lane Keeping System) qui fonctionne en situation d’embouteillage sur autoroute. L’ALKS contrôle alors le déplacement latéral et longitudinal du véhicule pendant des périodes prolongées sans intervention du conducteur. Lorsque ce système est activé, c’est lui qui dirige le véhicule.

Basée sur trois principes fondateurs - sécurité, progressivité, acceptabilité - la stratégie nationale pour le développement du véhicule autonome, publiée en mai 2018,  a conduit à la publication de ce décret adaptant les dispositions du code de la route et du code des transports pour permettre la circulation sur les routes de France des véhicules équipés de systèmes à délégation de conduite dès leur homologation, et des systèmes de transport routier automatisés sur parcours ou zones prédéfinis dès septembre 2022.

Jusqu’à présent le code de la route ne considérait que le cas de la conduite d’un véhicule par une personne. Désormais, il prévoit également la possibilité qu’un système de conduite automatisé contrôle le déplacement du véhicule, et par conséquent il était important d’adapter aussi le régime de responsabilité pénale à cette situation inédite pour permettre au conducteur de dégager sa responsabilité dès lors que le système de conduite automatisé fonctionne conformément à ses conditions d’utilisation.

Le décret du 29 juin 2021 adapte donc le régime de responsabilité pénale pour permettre au conducteur de dégager sa responsabilité dès lors que le système de conduite automatisé fonctionne conformément à ses conditions d’utilisation.

 Les modalités d’interaction entre le conducteur et le système de conduite automatisé, ainsi que les manœuvres d’urgence que le système peut être amené à effectuer automatiquement, sont également définies.

Il précise également le niveau d’attention attendu de la part du conducteur sur son environnement de conduite lorsqu’un système de conduite est activé.

Le décret prévoit enfin les modalités d'exonération du titulaire du certificat d'immatriculation du véhicule, lorsque le système de conduite automatisé était actif au moment de l'infraction. Concernant les systèmes de transport routier automatisés de personnes, il définit leurs spécificités techniques ainsi que leur périmètre et leurs conditions d'utilisation. Il définit les modalités d'interaction entre un intervenant humain et le système de transport.

La publication de ce décret, qui rendra également possible la circulation des systèmes de transport routier automatisés sur parcours ou zones prédéfinis dès septembre 2022 en France, est une avancée majeure pour l’ensemble de l’écosystème. La démonstration de la sécurité de ces systèmes, établie préalablement à leur mise en service, est au cœur du processus d’autorisation. Elle est conduite sur la base de plusieurs dossiers de sécurité, vérifiés par des organismes qualifiés agréés. Cette démonstration de sécurité permettra notamment de vérifier les réponses du système lors des situations de circulation prévisibles sur les parcours envisagés.

Les systèmes de conduite automatisée devraient rapidement évoluer et se multiplier. Le cadre réglementaire national établi par ce décret permet d’accompagner ces développements.

Nous reviendrons plus précisément dans un prochain article sur les dispositions de ce décret.

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article
Repost0
2 mai 2021 7 02 /05 /mai /2021 17:37

Le comité d’éthique de la défense a rendu le 29 avril 2021 un avis sur les systèmes d’armes létaux autonomes (SALA), une première marche vers le développement d'armes robotisées pilotées par l’homme, même s'il exclu pour le moment le recours à des  "robots tueurs" totalement autonomes.

Rappelons que la France s’est dotée en 2019 d’une structure de réflexion permanente sur les enjeux éthiques des nouvelles technologies dans le domaine de la défense.

La France confirme donc qu’elle ne développera et n’emploiera pas de systèmes d’armes létaux pleinement autonomes

Le rapport s’attache à identifier ce que recouvre la notion d’autonomie et présente les définitions existantes.

Au terme de cette analyse, le Comité a choisi d’établir une stricte distinction entre les SALA et les Systèmes d’armes létaux intégrant de l’autonomie (SALIA) mais incapables d’agir seuls, sans contrôle humain, de modifier leurs règles d’engagement et de prendre des initiatives létales. 

Au terme de cette analyse initiale, le Comité d’éthique de la défense a choisi d’établir une stricte distinction entre :

  • - Les Systèmes d’armes létaux autonomes (SALA), qui sont des systèmes d’armes létaux programmés pour être capables de faire évoluer leurs règles de fonctionnement, d’échapper au contrôle humain et de redéfinir tout seuls leur mission ;
  • - les Systèmes d’armes létaux intégrant de l’autonomie (SALIA) qui sont des systèmes comportant des fonctions automatisées, mais sous contrôle humain, dans des conditions qui garantissent :
    • le respect du principe constitutionnel de nécessaire libre disposition de la force armée,
    • le respect du principe de continuité de la chaîne de commandement de l’ordre à son application, 

    Un SALIA ne pourrait prendre d’initiatives létales - sans contrôle humain. Il ne pourrait pas modifier seul ses conditions de fonctionnement.

  • Ainsi, il existe une différence de nature entre les SALA, et la notion de SALIA introduite par le Comité, qui désigne un système ne pouvant pas être déployé sans intervention humaine, l’humain étant supposé rester au cœur des décisions d’usage de la force létale.

Néanmoins, on peine à croire à une totale interdiction, alors que l'on assiste à une véritable course à de tels armements des USA à Israël en passant par la Russie, avec les robots Big Dog de Boston Dynamics (logistique), Andros (ouverture de feu), Telemax (deminage), Guardian (reconnaissance)  ou nEUROn (drone).

Et dans l'armée française? Les robots militaires ont commencé à être livrés , en vue d'intégrer l'armée de Terre dans le cadre du programme terrestre Scorpion. 

La Direction générale de l’armement (DGA) a ainsi réceptionné en décembre 2019 cinq premiers micro-robots de reconnaissance étendue Nerva®-LG. Ces robots sont capables d’évoluer de manière autonome pour écouter, voir et enregistrer sur le champ de bataille. Ces robots faisaient partie d’une première commande globale de 56 micro-robots passée par la DGA à la société Nexter associée à la société ECA. D’autres robots ont été livrés en 2020 : 5 Nerva®-LG complémentaires, 10 Nerva®-S de reconnaissance de faible encombrement (3 kg), et 36 Nerva®-XX / Caméléon®-LG du génie (12 kg).

En mars 2021, les élèves officiers de l’école militaire de Saint-Cyr Coëtquidan ont pu s’entraîner avec Spot, le chien robot de Boston Dynamics, mais aussi la mule de transport Ultro.

Grâce aux avancées de la recherche en matière d'intelligence artificielle notamment, une trentaine d'entreprises dans le monde sont en train de mettre au point des robots tueurs qui pourraient choisir leur cible sans même qu'un humain n'intervienne pour les piloter.

Ceci pose de nombreux problèmes éthiques, moraux, mais aussi juridiques : qui traduire par exemple en justice si des armes autonomes commettent des crimes contre l'humanité?

Un encadrement de l'utilisation des armes autonomes s'impose. Mais si le  26 septembre 2019, les ministres des Affaires étrangères français, allemand et de dizaines d’autres pays avaient  approuvé au siège des Nations Unies une déclaration sur les systèmes d’armes létales autonomes, l'adoption d'un nouveau traité international tarde à se concrétiser en raison notamment des oppositions américaines et russes.

Retrouvez également sur ce sujet notre article Les SALA ou Robots-tueurs: vers une nécessaire règlementation des robots tueurs

( Source: l'avis du 29 avril 2021 ou en fichier Pdf ci-dessous) 

(crédits dessin: Cabinet Thierry Vallat) 

  •  
Partager cet article
Repost0
3 août 2020 1 03 /08 /août /2020 14:21

Dans la nuit du vendredi 31 juillet au samedi 1er août 2020, .l’Assemblée nationale a adopté en deuxième lecture le projet de loi bioéthique par 60 voix contre 37 et 4 abstentions, Le texte devra cependant encore repasser devant le Sénat, vraisemblablement en janvier 2021, avant que les parlementaires des deux chambres ne tentent de trouver une version de compromis.

Rappelons que ce projet de loi propose une évolution de notre cadre bioéthique sur 32 de nombreux sujets intéressant l'autoconservation et dons de gamètes, l'accès à la PMA, les dons d'organes, la transmission d'informations génétiques etc.

Il vise également à sécuriser la bonne information du patient lorsqu’un traitement algorithmique de données massives (« intelligence artificielle ») est utilisé à l’occasion d’un acte de soins, avec la garantie d’une intervention humaine.

La constitution de bases de données massives relatives à la santé est en effet désormais possible à partir de données recueillies lors de la prise en charge du patient (à des fins sanitaires et/ou médico-sociales), notamment à travers le système national des données de santé qui va être élargi par la création d’une Plateforme nationale des données de santé , mais également en dehors de toute relation de soins, notamment au travers d’objets connectés.

De nombreuses applications fondées sur l’exploitation des données massives et sur des dispositifs d’intelligence artificielle se développent rapidement dans le secteur sanitaire et médico-social, au niveau de la prise en charge individuelle des personnes.  

L’intelligence artificielle est par exemple mise au service d’outils qui permettent d’améliorer l’efficacité et la précocité des diagnostics, de fournir une aide aux décisions thérapeutiques ou  d’améliorer le suivi de l’évolution de la maladie et la prévention des rechutes.

Des dispositifs robotiques interviennent également de façon efficace dans la réalisation d’actes chirurgicaux.

L’intelligence artificielle est également utilisée au niveau collectif, à des fins de recherche, mais aussi de suivi et d’anticipation des risques sanitaires (par exemple dans l’analyse des signaux faibles en matière de pharmacovigilance ou de suivi épidémiologique), ou encore de pilotage du système de santé, par exemple pour fluidifier les parcours de soins.

Se pose donc non seulement la question de l'information du patient, mais aussi celle de la maîtrise finale des décisions diagnostiques, préventives ou thérapeutiques prises à partir des conclusions tirées par des applications d’intelligence artificielle compte tenu, d’une part, des limites résiduelles des algorithmes utilisés au regard de la variabilité des situations individuelles spécifiques de chaque personne, d’autre part, des conséquences potentielles de ces décisions.

L’article 11 du projet vise ainsi à permettre l'information du patient lorsque l'IA est utilisée à l’occasion d’un acte de soins.

Il était initialement prévu que les patients soient systématiquement informés du recours à l'Intelligence artificielle et notamment de tout "traitement algorithmique de données massives".  Par ailleurs le projet de loi déclinait également la garantie d’une intervention humaine.

Un amendement n°1469 est venu modifier l'article 11, en poursuivant plusieurs objectifs :

- clarifier le périmètre des dispositifs visés par cet article ;

- maintenir l’obligation d’informer le patient avant l’utilisation d’un traitement algorithmique dans le cadre de sa prise en charge médicale ;

- garantir que les résultats issus de ce dispositif sont validés par un professionnel de santé ;

- prévoir la traçabilité des actions et des données afin d’éviter que le dispositif ne fonctionne comme une « boîte noire ».

Un autre amendement n°650 est venu compléter l'alinéa 3 de l'article en précisant que l’hébergement de cette catégorie particulière de données est conditionné par les exigences de l’article L.1111-8 du code de la santé publique qui impose notamment la certification des hébergeurs.

L'article 11 est donc désormais libellé comme suit:

"Le chapitre Ier du titre préliminaire du livre préliminaire de la quatrième partie du code de la santé publique est complété par un article L. 4001‑3 ainsi rédigé :

« Art. L. 4001‑3. – I. – Lorsque, pour des actes à visée préventive, diagnostique ou thérapeutique, est utilisé un traitement algorithmique dont l’apprentissage est réalisé à partir de données massives, le professionnel de santé qui décide de cette utilisation s’assure que la personne concernée en a été informée au préalable et qu’elle est, le cas échéant, avertie de l’interprétation qui en résulte.

« II. – La traçabilité des actions d’un traitement mentionné au I et des données ayant été utilisées par celui-ci est assurée et les informations qui en résultent sont accessibles aux professionnels de santé concernés.   Les données sont traitées et partagées dans les conditions prévues à l’article L. 1111‑8 du présent code  

« III (nouveau). – Un arrêté du ministre chargé de la santé établit, après avis de la Haute autorité de santé, la liste des types de traitements algorithmiques qui font l’objet de l’information mentionnée au I. Il détermine, après avis de la Commission nationale de l’informatique et des libertés, pour chaque type de traitements, la nature et la durée de conservation des actions et des données dont la traçabilité est prévue au II. " 

Le projet de loi Bioéthique va donc mettre en place un encadrement juridique des traitements algorithmiques de données massives, c'est-à-dire des traitements de données issus de l’intelligence artificielle, lorsqu'ils sont utilisés pour des actes à visée préventive, diagnostique ou thérapeutique. Le dispositif repose tout d’abord sur une obligation d'informer la personne de l’utilisation d'un tel traitement algorithmique et de ses modalités d'action. Il n'impose cependant plus l'intervention d'un professionnel de santé pour le paramétrage d'un tel traitement en précisant, comme il en avait été initialement question, que ce paramétrage puisse être modifié par le professionnel de santé. Il prévoit enfin la traçabilité des données utilisées par ces dispositifs et des actions qui en résultent, ainsi que de l’accès à ces informations des professionnels de santé concernés.

Si ces dispositions ne régissent pas les décisions s'imposant aux personnes concernées puisqu’en application de l'article L 1111-4 du code de la santé publique : « Toute personne prend, avec le professionnel de santé et compte tenu des informations et des préconisations qu’il lui fournit, les décisions concernant sa santé », les effets susceptibles de résulter de tels traitements pour les personnes en cause justifient que le principe posé par l'article 22 du règlement (UE) 2016/679 du Parlement européen et du conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD) et par l’article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, qui exclut, sauf exceptions, la mise en œuvre d'une décision fondée exclusivement sur un traitement automatisé, soit appliqué en l’espèce.

Consulté pour avis, le Conseil d'Etat avait relevé le 24 juillet 2019 que le projet s’inscrit ainsi dans la ligne suivie par le Conseil d’Etat dans son avis sur le projet de loi d’adaptation au droit de l’Union européenne de la loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés (Assemblée générale, 7 décembre 2017, 393836) en faveur d’une information de la personne concernée et d’une d’intervention humaine avant la prise d’une décision administrative individuelle sur le fondement d’un algorithme. Le Conseil Constitutionnel a, par une décision n°2018-765 DC du 12 juin 2018, jugé que le législateur a défini des garanties appropriées pour la sauvegarde des droits et libertés des personnes soumises aux décisions administratives individuelles prises sur le fondement d’un algorithme, dès lors que ne peuvent être utilisés, comme fondement exclusif de cette décision, des algorithmes « susceptibles de réviser eux-mêmes les règles qu’ils appliquent, sans le contrôle et la validation du responsable du traitement ».

Rendez-vous donc en janvier 2021 pour la suite du processus législatif au Sénat et de possibles modifications de l'article 11

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article
Repost0
4 juillet 2020 6 04 /07 /juillet /2020 08:19
Depuis le 1er septembre 2017, en application de la loi pour une République numérique du 7 octobre 2016 (dite Loi Lemaire), toutes les décisions administratives prises « sur le fondement d'un traitement algorithmique » doivent être accompagnées d’une « mention explicite ».
 
L'article L 311-3-1 du CRPA dispose donc:
 
"Sous réserve de l'application du 2° de l'article L. 311-5, une décision individuelle prise sur le fondement d'un traitement algorithmique comporte une mention explicite en informant l'intéressé. Les règles définissant ce traitement ainsi que les principales caractéristiques de sa mise en œuvre sont communiquées par l'administration à l'intéressé s'il en fait la demande. "
 
et l'article R 311-1-3-1-1 prévoit que "La mention explicite prévue à l'article L. 311-3-1 indique la finalité poursuivie par le traitement algorithmique. Elle rappelle le droit, garanti par cet article, d'obtenir la communication des règles définissant ce traitement et des principales caractéristiques de sa mise en œuvre, ainsi que les modalités d'exercice de ce droit à communication et de saisine, le cas échéant, de la commission d'accès aux documents administratifs, définies par le présent livre."
 
L’administration doit donc:
 
-Intégrer une « mention explicite » informant l’usager que la décision qui le concerne a été prise sur le fondement d’un traitement algorithmique, et qu’il a donc le droit de savoir quelles sont les « principales caractéristiques » de mise en œuvre de ce programme.
-Expliquer, sur sa demande, comment fonctionne l’algorithme utilisé.
 
Mais cette loi Lemaire n’était en réalité pas appliquée, sauf par l'Education nationale (avec le système d’affectation des lycéens Affelnet)
 
Et c’est pourquoi ce fut lors du débat sur la loi sur la protection des données personnelles de 2018 qu’un amendement sénatorial est intervenu pour « relancer la machine  », finalement accepté par le gouvernement mais en en repoussant les effets de la nullité au 1er juillet 2020 et en limitant cette nullité automatique aux décisions 100 % automatisées.
 
Dès lors depuis le 1er juillet 2020 en effet, en l’absence de « mention explicite », les décisions concernées doivent systématiquement être considérées comme nulles. Mais cette nullité automatique ne prévaudra devant le juge administratif qu’en l’absence de « mention explicite », le seul fait pour l'administration de ne pas répondre aux demandes d’explicitation des citoyens n’étant  passible d’aucune sanction.
 
C’est désormais l’Article 47 De la loi informatique et liberté de 1978 modifié (ancien article 10) qui prévoit cette nullité.
 
Mais il est clair que les administrations et collectivités territoriales ne sont malheureusement toujours pas prêtes pour au moins deux raisons:
 
- une insuffisante acculturation des administrations aux enjeux du numérique qu'elle considèrent comme une charge indûe
- une inadaptation lorsqu'elles confrontées à des difficultés de mise en œuvre de ces nouvelles obligations 
 
Il faudrait bien entendu une parfaite transparence des algorithmes qui serait effectivement de nature à  sécuriser mais force est de constater  que ce principe est difficile à mettre en œuvre par l'Etat à chaque fois qu'il est réclamé. On l'a vu par exemple lors du Grand Débat et les interrogations concernant l'algorithme très opaque ou la mise en place de l'appli StopCovid.
 
Le Conseil constitutionnel s'est prononcé sur ces problématiques et a considéré en 2018 que "Ne peuvent être utilisés, comme fondement exclusif d'une décision administrative individuelle, des algorithmes susceptibles de réviser eux-mêmes les règles qu'ils appliquent, sans le contrôle et la validation du responsable du traitement. »

Sont ainsi posées des bornes au traitement automatisé des impôts et des aides ou de l'admission post-bac, voire aux expériences de justice prédictive qui, précisément, reposent sur ce type d'algorithmes et la porte ouverte aux citoyens qui pourront saisir la justice administrative chaque fois qu'une décision défavorable non motivée ou prise en considération de la personne. 

Me Thierry Vallat a analysé cette disposition pour ZDNET du 3 juillet 2020: Algorithmes : les administrations forcées à plus de transparence

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article
Repost0
24 avril 2020 5 24 /04 /avril /2020 07:05

Prédire où et quand un crime va survenir: la police l'avait rêvé, les logiciels de police prédictive comme CrimeScan ou PredPol le proposent. 

Ringardisés les inspecteurs Columbo et autres détectives, place à l'ère du Minority report de Philippe K Dick, quand la police algorithmique arrive à stopper les criminels avant leur passage à l’acte.

Il s'agit en effet d'algorithmes auto-apprenant qui moulinent le type d'infraction, leur localisation et leur date. Après avoir déterminé les zones géographiques et les horaires où la commission de délits est la plus probable, les données sont transmises aux patrouilles de police afin d’empêcher leur commission. Bien entendu en amont, les concepteurs de ce Big Data de la sécurité publique ont collecté ici et là le maximum de données personnelles pour nourrir leur intelligence artificielle en les croisant avec les fichiers de police.

Utilisés pour la première fois à Los Angeles en Californie en 2013 où ils auraient permis de réduire les cambriolages et depuis très contestés, actuellement en Europe seulement l’Allemagne et l’Angleterre utilisent des systèmes de police prédictive: les allemands avec le logiciel PredPol  et les anglais avec Matrix dans la région du Kent.

En France, tout profilage qui entraînerait une discrimination à l’égard de personnes physiques sur la base de données à caractère personnel qui sont par nature, particulièrement sensibles du point de vue des libertés et des droits fondamentaux, devrait être interdit.

La CNIL définit les algorithmes auto-apprenants comme des algorithmes au comportement évolutif dans le temps, en fonction des données qui leur ont été fournies. « Ces algorithmes « auto-apprenants » relèvent du domaine de recherche des systèmes experts et de l'« intelligence artificielle ». Ils sont utilisés dans un nombre croissant de domaines, allant de la prédiction du trafic routier à l'analyse d'images médicales ». https://www.cnil.fr/fr/definition/algorithme

Rappelons que le Conseil constitutionnel, dans une décision n°2018-765 DC en date du 12 juin 2018 (https://www.conseil-constitutionnel.fr/decision/2018/2018765DC.htm), s’est prononcé pour la première fois sur la question de l’usage des algorithmes auto-apprenants comme fondement d’une décision administrative individuelle. Trois conditions ont été posées : 

- le traitement algorithmique et ses évolutions doivent être maîtrisés et doivent pouvoir être expliqués sous forme intelligible à la personne concernée ;

- toute décision administrative fondée sur un algorithme doit pouvoir faire l’objet d’un recours administratif ;

- l’algorithme ne doit pas porter sur des données sensibles (origine raciale ou ethnique, opinions politiques, convictions religieuses, philosophiques ou syndicale, données génétiques, biométriques, de santé ou relatives à la vie sexuelle ou l’orientation sexuelle d’une personne physique).

Au niveau local, plusieurs collectivités territoriales tentent de mettre en place des systèmes de "vidéosurveillance intelligente" dans l’objectif de renforcer le contrôle des espaces urbains. Marseille et son projet « Big data de la tranquillité publique » lancé en 2016 en est un des exemple les plus marquants (lire notre article Big Data pour la tranquillité publique). Ce projet a été contesté devant le tribunal administratif de la cité phocéenne par la LDH et la Quadrature du net.

Ainsi, si la police prédictive peut représenter un outil de modernisation de l’action des forces de l'ordre, elle attise en même temps un certain nombre de craintes eu égard aux risques qu’elle comporte : atteintes aux libertés fondamentales, faillibilité du système, discriminations etc. 

La gendarmerie nationale, toujours en pointe de l'innovation, développe une plateforme d’anticipation nommée "PAVED" pour "plateforme d’analyse et de visualisation évolutive de la délinquance", Il s'agit d'une  "plateforme d’analyse décisionnelle" basée sur le principe que les faits passés détermineraient principalement les faits futurs. La gendarmerie s’intéresse plus aux zones de commission des faits de délinquance qu'aux individus et vise donc, par l’analyse prédictive, les secteurs géographiques où se concentrent les délits avec deux composantes entrent dans cette analyse : la saisonnalité et la tendance des faits.

Comme a pu s'interroger Camille Gosselin dans son article sur la police prédictive (https://www.iau-idf.fr/fileadmin/NewEtudes/Etude_1797/Etude_Police_Predictive_V5.pdf) "Au sein des forces de sécurité, l’avenir de l’analyse de la délinquance reposerait-elle principalement sur l’usage d’algorithmes ? Après la police de l’information tournée vers la gestion, la circulation des données et l’usage des technologies de l’information, la police algorithmique serait-elle l’aboutissement « d’une police intelligente », qui aurait su tirer profit des big data pour optimiser ses services face à l’insécurité ? "

Et c'est alors que ce type de dispositif semble avoir le vent en poupe que la police de Los Angeles vient d'annoncer le 21 avril 2020 qu'elle mettait un terme à son programme (lire dans le Los Angeles Times), officiellement pour des raisons budgétaires (affectation des ressources au Covid19). Mais il semblerait que les résultats finalement décevants et potentiellement stigmatisants pour certaines communautés comme les afro-américains,  aient eu raison, pour le moment,  de PredPol, lequel a également été abandonné par plusieurs autres services de police sur le territoire américain.

Alors véritable panacée ou miroir aux alouettes cette police algorithmique ? En tout état de cause, il convient de rester très vigilant aux projets en cours en France afin que la protection de nos si précieuses données personnelles et le respect de nos libertés individuelles ne soient pas sacrifiés sur l'autel de la sécurité publique à tout prix.

Me Thierry Vallat a été interrogé par Marianne le 6 avril 2018 sur la police prédictive http://L'ère de la police prédictive

(crédits dessin: Cabinet Thierry Vallat)

 

Partager cet article
Repost0
19 janvier 2020 7 19 /01 /janvier /2020 09:56

Pour la première fois au monde, une juridiction chinoise a considéré que le travail d'une intelligence artificielle pouvait être protégé par un droit d'auteur.

Le tribunal de Shenzen, dans la province chinoise du Guangdong, vient en effet de juger qu'un article financier écrit par Dreamwriter, un algorithme conçu par le géant Tencent, avait été reproduit sans autorisation .

Cette décision est intervenue après que Tencent ait poursuvi en justice la société Shanghai Yingxun Technology Company, une plateforme en ligne ayant reproduit un article écrit par son robot-journaliste Dreamwriter.

Bien qu'ayant déjà retiré l'article illégalement copié , la Shanghai Yingxun Technology Company a été condamnée à payer une somme de 1,500 yuan ($216) à Tencent au titre de sa perte financière et de la protection du droit d'auteur pour cet article écrit automatiquement le 20 août 2018 par le robot.

Dreamwriter est un programme algorithmique développé par Telcent et qui écrit depuis 2015 des articles financiers.

Le tribunal a reconnu que la forme d'expression contenue dans l'article était conforme aux préconisations d'un véritable travail écrit, contenant des informations pertinentes et une analyse sur les marchés financiers, et qu'en conséquence la structure de l'article démontrait un travail raisonnable, une logique claire et une originalité certaine.

Il s'agit donc d'une première mondiale puisque jamais auparavant que ce soit aux USA, en Australie ou en Europe, le travail d'une IA n'avait été reconnu comme éligible à une protection intellectuelle.

Jusqu'à présent, la protection des œuvres culturelles créées par une machine était systématiquement écartée et elles ne sont pas protégées par des droits d'auteur. Car le robot ne peut prétendre à être considéré comme auteur. Lire notre article Le robot, la musique et les droits d'auteur -

Si au niveau européen, le rapport Delvaux adopté en février 2017 par le Parlement européen avait notamment proposé d'accorder des droits de propriété intellectuelle spécifiques sur les œuvres crées par des intelligences artificielles et de réfléchir aux « critères de "création intellectuelle propre" applicables aux œuvres protégeables par droit d'auteur créées par des ordinateurs ou des robots ».  Aucune suite n'y a été donnée pour le moment (lire notre article  Vers la création d'une personnalité juridique électronique

L’Office européen des brevets vient récemment de rejeter deux demandes de brevets déposées au nom de DABUS, une intelligence artificielle. Dans un communiqué du 20 décembre 2019, l'OEB a en effet annoncé avoir rejeté les deux demandes, l'inventeur devant être un humain et non un algorithme.

“DABUS” était décrite dans le dépôt de brevet comme un "type d'intelligence artificielle connexionniste", c’est-à-dire une machine créative  reposant sur un système de plusieurs réseaux neuronaux capable de générer des idées en modifiant leurs interconnexions.

Après avoir écouté les parties lors d'une audience non publique en date du 25 novembre 2019, l'Office européen des brevets a refusé les brevets  EP 18 275 163 and EP 18 275 174 :

  • le numéro EP 18 275 163 porte sur un type de récipient pour boissons basé sur la géométrie fractale ;
  • le numéro EP 18 275 174 concerne sur un dispositif embarquant une lumière vacillante pour attirer l’attention pendant des opérations de recherche et de sauvetage.

Le débat sur la  reconnaissance des droits de propriété intellectuelle à une intelligence artificielle est donc relancé par ce jugement chinois. Déjà, la protection des œuvres culturelles créées par une machine était écartée et elles ne sont pas protégées par des droits d'auteur. Car le robot ne peut prétendre à être considéré comme auteur. Lire notre article Le robot, la musique et les droits d'auteur -

 

(source: Ecns.cn http://www.ecns.cn/news/2020-01-09/detail-ifzsqcrm6562963.shtml )

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article
Repost0
7 janvier 2020 2 07 /01 /janvier /2020 13:03

L’Office européen des brevets vient de rejeter les deux demandes de brevets  EP 18 275 163 et EP 18 275 174 déposées au nom de DABUS, une intelligence artificielle.

Motif: les brevets n’ont pas d’inventeur humain. 

La question était de savoir si un brevet pouvait être revendiqué par une machine et celle-ci reconnue comme inventeur.

Les demandes de brevets avaient en effet été soumises en août 2019 en Grande Bretahne, aux Etats-Unis et en Europe par le professeur Ryan Abbott de l'Université du Surrey,et son équipe du projet "Artificial inventors". Selon eux, la propriété de l'invention ne devrait pas être limitée aux personnes physiques, une machine qui répondrait aux critères de propriété de l'invention si elle était une personne physique devrait également être considérée comme un inventeur http://artificialinventor.com/dabus/

Dans un communiqué du 20 décembre 2019, l'OEB a annoncé avoir rejeté les deux demandes, l'inventeur devant être un humain et non un algorithme.

“DABUS” était décrite dans le dépôt de brevet comme un "type d'intelligence artificielle connexionniste", c’est-à-dire une machine créative  reposant sur un système de plusieurs réseaux neuronaux capable de générer des idées en modifiant leurs interconnexions.

Après avoir écouté les parties lors d'une audience non publique en date du 25 novembre 2019, l'Office européen des brevets a refusé les brevets  EP 18 275 163 and EP 18 275 174 :

  • le numéro EP 18 275 163 porte sur un type de récipient pour boissons basé sur la géométrie fractale ;
  • le numéro EP 18 275 174 concerne sur un dispositif embarquant une lumière vacillante pour attirer l’attention pendant des opérations de recherche et de sauvetage.

La décision motivée sera disponible dans le courant du mois de janvier.

La reconnaissance des droits de propriété intellectuelle à une intelligence artificielle est donc loin d'être gagnée. Déjà, la protection des oeuvres culturelles créées par une machineétait écartée et elles ne sont pas protégées par des droits d'auteur. Car le robot ne peut prétendre à être considéré comme auteur. Lire notre article Le robot, la musique et les droits d'auteur -

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article
Repost0
13 décembre 2019 5 13 /12 /décembre /2019 13:30

Article mis à jour le 29 mars 2020

Dans une réponse ministérielle du 12 décembre 2019, la garde des Sceaux vient de donner sa vision de la place des algorithmes dans la justice, suite à une question ministérielle n° 11629, JO Sénat 12 déc. 2019 .

La sénatrice Brigitte Lherbier avais attiré l'attention de Mme la ministre de la justice, sur la place accordée aux algorithmes dans le secteur juridique, notamment sur la fonction « prédictive » de ces outils.

Pour la parlementaire "alors que certains pays de l'organisation de coopération et de développement économiques (OCDE), comme la Finlande ou les États-Unis ont de plus en plus recours à des algorithmes dans leurs systèmes de justice, avec par exemple le logiciel américain compas qui mesure le risque de récidive des prévenus, mais s'est révélé peu précis et peu efficace ; il est fondamental pour la France que les professionnels du secteur mais aussi l'État, se saisissent du sujet de l'intelligence artificielle (IA) dans la justice et définissent les usages qu'ils veulent en faire, afin d'éviter l'avènement d'une justice expéditive et déshumanisée"

Elle considère que "lsecteur juridique privé en France gagnerait à établir des bonnes pratiques et à respecter une certaine déontologie en matière de transparence des outils : à titre d'exemple, en France, des éditeurs juridiques privés ont déjà créé des algorithmes sans boîtes noires".

Elle a donc demandé à Mme Belloubet  de clarifier la position du Gouvernement sur le développement de l'IA dans le secteur du droit et de la justice, et sur la possibilité de travailler avec les legal techs à la mise en place d'une certification qui permettrait le déploiement raisonné et éthique de ces solutions d'IA. La France a une opportunité pour être pionnière dans la justice algorithmique, au service des justiciables.

La Garde des Sceaux a répondu ainsi le 12 décembre 2019:
 
"Les nouvelles technologies de l'information et de la communication contribuent à dessiner un nouvel environnement judiciaire permettant ainsi, entre autres, la dématérialisation de l'accès au droit et à la justice, la création de plateformes de résolutions à l'amiable des litiges ou encore l'accès à de nouvelles modalités de saisine des juridictions, notamment civiles.
Parmi ces évolutions, les outils algorithmiques dits « d'intelligence artificielle » se proposent notamment de contribuer à réduire l'aléa judiciaire par l'analyse statistique du risque judiciaire encouru par le justiciable. Touchant au cœur de l'action du magistrat, ces outils pourraient modifier en profondeur la pratique du droit : ils suscitent donc d'importants débats.
Parmi les deux cents entreprises répertoriées en 2018 comme Legaltech seules 3 % des start-ups « legaltech » feraient du développement d'un algorithme d'intelligence artificielle leur cœur de métier. Ces nouveaux acteurs cherchent à faire évoluer les pratiques du droit. Il importe d'évaluer avec objectivité la réalité de ces évolutions. Plusieurs cas d'usage et d'expérimentations, en France comme dans d'autres pays, justifient une première analyse nuancée des algorithmes de prédiction de l'aléa juridique.
En France, l'expérimentation d'un logiciel aux visées prédictives dans le ressort des cours d'appel de Douai et Rennes au printemps 2017 a été conclue par le constat partagé entre magistrats et avocats d'une inadéquation par rapport aux besoins exprimés.
Au Royaume-Uni, l'expérimentation HART, conduite en 2016 par des chercheurs de l'université de Londres, et qui avait comme objectif de reproduire les processus de décision du juge européen, n'est pas parvenue à descendre en dessous des 20 % de réponses erronées, ce qui est un taux trop important pour un outil d'aide à la décision. Il appartient à la puissance publique de fixer le cadre et d'orienter le justiciable dans cet univers en pleine mutation. 
À ce titre, la principale garantie contre une justice intégralement algorithmique tient à l'article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, qui dispose qu'« aucune décision de justice impliquant une appréciation sur le comportement d'une personne ne peut avoir pour fondement un traitement automatisé de données à caractère personnel destiné à évaluer certains aspects de la personnalité de cette personne. (…) ».
La loi n° 2016-1321 du 7 octobre 2016 dite « République numérique » impose la transparence des algorithmes publics, offrant ainsi une garantie supplémentaire contre un éventuel phénomène de « boîte noire » en matière d'usages judiciaires de l'intelligence artificielle. En outre, la loi de programmation 2018-2022 et de réforme pour la justice prévoit : que la réutilisation de données de magistrats ou de greffiers « ayant pour objet ou pour effet d'évaluer, d'analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées » est un délit (article 33) ; une certification facultative des plateformes en ligne de résolution amiable des litiges, y compris celles dont le service en ligne est proposé à l'aide d'un traitement algorithmique ou automatisé de données à caractère personnel. Il s'agit d'accompagner le développement des legaltech tout en sécurisant le cadre juridique et instaurant un climat de confiance pour le justiciable qui recourt à ces outils numériques. La certification sera accordée dès lors que les plateformes respectent les règles de protection des données à caractère personnel et les exigences d'indépendance et d'impartialité. La certification ne pourra pas être accordée à des plateformes qui auraient pour seul fondement un traitement algorithmique ou automatisé de données. Cette accréditation a été pensée non comme une obligation mais comme une faculté et doit aider au développement de ces entreprises innovantes tout informant pleinement le justiciable.
Parallèlement, le plan de transformation numérique du ministère de la justice doit permettre de mettre en œuvre les dispositions de la loi de programmation 2018-2022 et de réforme pour la justice sur l'open data des décisions de justice."

L’objectif est clair pour Mme Belloubet: « il s'agit d'accompagner le développement des legaltech tout en sécurisant le cadre juridique et instaurant un climat de confiance pour le justiciable qui recourt à ces outils numériques ».
 
Le projet de décret open data a été communiqué par la Chancellerie en novembre dernier. Nous y reviendrons dans un prochain article.
 
mise à jour le 29 mars 2020
 
Si le décret opendata est toujours aux abonnés absents, un autre décret a été publié ce 29 mars 2020: le  Décret n° 2020-356 du 27 mars 2020 qui instaure d'un traitement automatisé de données à caractère personnel dénommé « DataJust » à partir des données de ces 3 dernières années 2017 à 2019 croisées à partir des fichiers JuriCa et Ariane.
 
Il autorise le ministre de la justice à mettre en œuvre, pour une durée de deux ans, un traitement automatisé de données à caractère personnel, dénommé « DataJust », ayant pour finalité le développement d'un algorithme destiné à permettre l'évaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative, l'élaboration d'un référentiel indicatif d'indemnisation des préjudices corporels, l'information des parties et l'aide à l'évaluation du montant de l'indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges, ainsi que l'information ou la documentation des juges appelés à statuer sur des demandes d'indemnisation des préjudices corporels.
Le décret définit les finalités du traitement, la nature et la durée de conservation des données enregistrées ainsi que les catégories de personnes y ayant accès 
 
L'avis de la CNIL figure en page 128 du JO (version Pdf)
 
Ce texte se situe donc dans la droite ligne de la vison gouvernementale de la justice prédictive et crée un véritable danger de robotisation de la justice par le truchement d'algorithmes biaisés et une marginalisation consciente du rôle des avocats.
 
 
(Crédits dessin: Cabinet Thierry Vallat)
NB: le maillet est un clin d'œil totalement assumé...
Partager cet article
Repost0
9 août 2019 5 09 /08 /août /2019 07:44

Le Projet de loi relatif à la bioéthique , n° 2187 sera l'un des textes phares qui seront débattus à la rentrée 2019.

Présenté en Conseil des ministres le 24 juillet 2019 le projet de loi propose une évolution de notre cadre bioéthique sur 32 articles interessant l'autoconservation et dons de gamètes, accès à la PMA, dons d'organes, transmission d'informations génétiques etc.

Il vise également à sécuriser la bonne information du patient lorsqu’un traitement algorithmique de données massives (« intelligence artificielle ») est utilisé à l’occasion d’un acte de soins, avec la garantie d’une intervention humaine.

La constitution de bases de données massives relatives à la santé est en effet désormais possible à partir de données recueillies lors de la prise en charge du patient (à des fins sanitaires et/ou médico-sociales), notamment à travers le système national des données de santé qui va être élargi par la création d’une Plateforme nationale des données de santé , mais également en dehors de toute relation de soins, notamment au travers d’objets connectés.

De nombreuses applications fondées sur l’exploitation des données massives et sur des dispositifs d’intelligence artificielle se développent rapidement dans le secteur sanitaire et médico-social, au niveau de la prise en charge individuelle des personnes.  

L’intelligence artificielle est par exemple mise au service d’outils qui permettent d’améliorer l’efficacité et la précocité des diagnostics, de fournir une aide aux décisions thérapeutiques ou  d’améliorer le suivi de l’évolution de la maladie et la prévention des rechutes.

Des dispositifs robotiques interviennent également de façon efficace dans la réalisation d’actes chirurgicaux.

L’intelligence artificielle est également utilisée au niveau collectif, à des fins de recherche, mais aussi de suivi et d’anticipation des risques sanitaires (par exemple dans l’analyse des signaux faibles en matière de pharmacovigilance ou de suivi épidémiologique), ou encore de pilotage du système de santé, par exemple pour fluidifier les parcours de soins.

Se pose donc non seulement la question de l'information du patient, mais aussi celle de la maîtrise finale des décisions diagnostiques, préventives ou thérapeutiques prises à partir des conclusions tirées par des applications d’intelligence artificielle compte tenu, d’une part, des limites résiduelles des algorithmes utilisés au regard de la variabilité des situations individuelles spécifiques de chaque personne, d’autre part, des conséquences potentielles de ces décisions.

L’article 11 du projet vise ainsi à permettre l'information du patient lorsque l'IA est utilisée à l’occasion d’un acte de soins.

Les patients devront donc être systématiquement informés du recours à l'Intelligence artificielle et notamment de tout "traitement algorithmique de données massives". 

Par ailleurs le projet de loi décline également la garantie d’une intervention humaine.

C'est ainsi que le code de la santé serait complété par un nouvel article L. 4001-3 ainsi rédigé :

« Art. L. 4001-3. – I. – Lorsque pour des actes à visée préventive, diagnostique ou thérapeutique est utilisé un traitement algorithmique de données massives, le professionnel de santé qui communique les résultats de ces actes informe la personne de cette utilisation et des modalités d’action de ce traitement.

« II. – L’adaptation des paramètres d’un traitement mentionné au I pour des actions à visée préventive, diagnostique ou thérapeutique concernant une personne est réalisée avec l’intervention d’un professionnel de santé et peut être modifiée par celui-ci.

« III. – La traçabilité des actions d’un traitement mentionné au I et des données ayant été utilisées par celui-ci est assurée et les informations qui en résultent sont accessibles aux professionnels de santé concernés. 

Le projet de loi Bioéthique met donc en place un encadrement juridique des traitements algorithmiques de données massives, c'est-à-dire des traitements de données issus de l’intelligence artificielle, lorsqu'ils sont utilisés pour des actes à visée préventive, diagnostique ou thérapeutique. Le dispositif repose tout d’abord sur une obligation d'informer la personne de l’utilisation d'un tel traitement algorithmique et de ses modalités d'action. Il impose l'intervention d'un professionnel de santé pour le paramétrage d'un tel traitement et précise que ce paramétrage peut être modifié par le professionnel de santé. Il prévoit enfin la traçabilité des données utilisées par ces dispositifs et des actions qui en résultent, ainsi que de l’accès à ces informations des professionnels de santé concernés.

Si ces dispositions ne régissent pas les décisions s'imposant aux personnes concernées puisqu’en application de l'article L 1111-4 du code de la santé publique : « Toute personne prend, avec le professionnel de santé et compte tenu des informations et des préconisations qu’il lui fournit, les décisions concernant sa santé », les effets susceptibles de résulter de tels traitements pour les personnes en cause justifient que le principe posé par l'article 22 du règlement (UE) 2016/679 du Parlement européen et du conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD) et par l’article 47 de la loi n° 78-17 du 6 janvier 1978 relative à l'informatique, aux fichiers et aux libertés, qui exclut, sauf exceptions, la mise en œuvre d'une décision fondée exclusivement sur un traitement automatisé, soit appliqué en l’espèce.

Consulté pour avis, le Conseil d'Etat relève que le projet s’inscrit ainsi dans la ligne suivie par le Conseil d’Etat dans son avis sur le projet de loi d’adaptation au droit de l’Union européenne de la loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés (Assemblée générale, 7 décembre 2017, 393836) en faveur d’une information de la personne concernée et d’une d’intervention humaine avant la prise d’une décision administrative individuelle sur le fondement d’un algorithme. Le Conseil Constitutionnel a, par une décision n°2018-765 DC du 12 juin 2018, jugé que le législateur a défini des garanties appropriées pour la sauvegarde des droits et libertés des personnes soumises aux décisions administratives individuelles prises sur le fondement d’un algorithme, dès lors que ne peuvent être utilisés, comme fondement exclusif de cette décision, des algorithmes « susceptibles de réviser eux-mêmes les règles qu’ils appliquent, sans le contrôle et la validation du responsable du traitement ».

Le Conseil d'État considère ainsi que ces dispositions, qui ne se heurtent à aucun obstacle de nature constitutionnelle ou conventionnelle, sont particulièrement bienvenues

Retrouvez l'avis du 24 juillet 2019 du Conseil d état sur le Projet de loi relatif à la bioéthique

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article
Repost0
24 mai 2019 5 24 /05 /mai /2019 06:15

Un nouveau pas vers des résolutions éthiques internationales en matière d'intelligence artificielle.

Les pays membres et partenaires de l’OCDE ont en effet officiellement adopté le 22 mai 2019  le premier ensemble de principes intergouvernementaux sur l’intelligence artificielle (IA). Ce faisant, ils s’engagent à respecter des normes internationales visant à assurer la conception de systèmes d’IA robustes, sûrs, équitables et dignes de confiance.

Les 36 pays membres de l’OCDE, dont la France, ainsi que l’Argentine, le Brésil, la Colombie, le Costa Rica, le Pérou et la Roumanie ont adhéré aux Principes de l’OCDE sur l’intelligence artificielle lors de la Réunion annuelle du Conseil au niveau des Ministres, consacrée cette année à « La transition numérique au service du développement durable ». Élaborés avec le concours d’un groupe de plus de 50 experts de tous horizons – administrations, milieux universitaires, entreprises, société civile, instances internationales, communauté technique et organisations syndicales –, ils s’articulent autour de cinq principes fondés sur des valeurs, pour un déploiement responsable d’une IA digne de confiance, et cinq recommandations applicables dans le cadre des politiques publiques et de la coopération internationale. L’objectif est d’aider les pouvoirs publics, les organisations et les individus à concevoir et exploiter des systèmes d’IA servant au mieux l’intérêt général et de garantir que concepteurs et exploitants soient tenus responsables de leur bon fonctionnement.

« L’intelligence artificielle révolutionne nos modes de vie et de travail et offre des avantages considérables pour nos sociétés et nos économies. Pourtant, elle soulève de nouveaux défis, suscite également des inquiétudes et pose des problèmes d’éthique. Il incombe donc aux pouvoirs publics de veiller à ce que les systèmes d’IA soient conçus de manière à respecter nos valeurs et nos lois, afin d'assurer la sécurité et la protection de la vie privée des personnes », a déclaré Angel Gurría, Secrétaire général de l’OCDE. « Ces Principes constitueront une référence mondiale pour bâtir une IA digne de confiance, afin que l’on puisse tirer le meilleur parti des opportunités qu’elle offre, au service de tous ». (Lire le discours en anglais).

Les Principes sur l’intelligence artificielle bénéficient du soutien de la Commission européenne, dont le groupe d’experts de haut niveau a rédigé des Lignes directrices en matière d’éthique pour une IA digne de confiance, et seront au menu des débats du prochain Sommet du G20, qui se tiendra au Japon. Dans les mois à venir, les experts des politiques du numérique à l’OCDE s’attelleront à mettre au point des orientations pratiques à l’appui de leur mise en œuvre.

Bien qu’ils ne soient pas juridiquement contraignants, les Principes énoncés par l’OCDE dans d’autres domaines de la politique ont ouvert la voie à l’élaboration de normes internationales et aidé les pouvoirs publics à concevoir leurs législations nationales.

Par exemple, les Lignes directrices de l’OCDE régissant la protection de la vie privée, qui fixent des limites à la collecte et l’utilisation des données à caractère personnel, sous-tendent un grand nombre de cadres et de lois de protection de la vie privée aux États-Unis, en Europe et en Asie. De même, les Principes de gouvernance d’entreprise du G20 et de l’OCDE sont devenus une référence internationale pour les décideurs, les investisseurs, les entreprises et les autres parties prenantes travaillant sur les cadres institutionnels et réglementaires régissant la gouvernance d’entreprise.

En résumé, les Principes spécifient que :

  1. L’IA devrait servir les intérêts des individus et de la planète en favorisant la croissance inclusive, le développement durable et le bien-être.
     
  2. Les systèmes d’IA devraient être conçus de manière à respecter l’état de droit, les droits de l’homme, les valeurs démocratiques et la diversité, et être assortis de garanties appropriées – permettant par exemple l’intervention humaine en cas de besoin –, afin de tendre vers une société juste et équitable.
     
  3. Il convient d’assurer la transparence et la divulgation responsable des informations liées aux systèmes d’IA, afin de faire en sorte que les individus sachent lorsqu’ils interagissent avec de tels systèmes et puissent en contester les résultats.
     
  4. Les systèmes d’IA devraient être robustes, sûrs et sécurisés tout au long de leur cycle de vie ; les risques connexes éventuels devraient être évalués et gérés en permanence.
     
  5. Les organisations et les individus chargés de développer, de déployer ou d’exploiter des systèmes d’IA devraient être responsables de leur bon fonctionnement, dans le respect des principes susmentionnés.
     

L’OCDE recommande aux pouvoirs publics d’entreprendre les actions suivantes :

  • Faciliter l’investissement public et privé dans la recherche et le développement, afin de stimuler l’innovation dans une IA digne de confiance.
  • Favoriser la mise en place d’écosystèmes d’IA accessibles, comprenant les technologies et infrastructures numériques, ainsi que des mécanismes de partage des données et des connaissances.
  • Bâtir un cadre d’action ouvrant la voie au déploiement de systèmes d’IA dignes de confiance.
  • Doter les individus des compétences dont ils ont besoin dans le domaine de l’IA et assurer une transition équitable pour les travailleurs.
  • Favoriser la coopération transnationale et intersectorielle afin de partager des informations, définir des normes et collaborer à l’adoption d’une approche responsable au service d’une IA digne de confiance.
     

La Commission européenne a pour sa part publié en avril dernier des lignes directrices construites sur le postulat selon lequel le développement de l’intelligence artificielle ne peut s’envisager sans confiance . Elles sont le fruit des travaux d’un groupe d’expertise constitué en juin 2018 et qui compte, parmi ses 52 membres, une dizaine de Français.

Trois grands axes ont été retenus : la conformité de l’IA aux lois, sa robustesse (des points de vue technique et social) et son respect des principes d’éthique dont  l’équité, le respect de l’autonomie humaine et la prévention du préjudice. Ces lignes directrices seront actualisées d’ici à début 2020.

 

Télécharger les Principes de l'OCDE sur l'intelligence artificielle dans leur version intégrale.

(source OCDE)

(crédits dessin: Cabinet Thierry Vallat)

 

Partager cet article
Repost0
23 février 2019 6 23 /02 /février /2019 09:41

Article mis à jour le 2 mars 2019

Plusieurs centaines de milliers de contributions ont déjà été collectées dans le cadre du Grand débat national lancé le 15 janvier 2019, sans compter plus de dix mille cahiers de doléances et cinq cents mille courriers électroniques .

À partir du 15 mars 2019, fin de ce grand débat, ce sera le début du travail de tri.

Mais comment faire pour en assurer le traitement ?

Le recours aux algorithmes a donc été jugé indispensable pour traiter la masse de données recueillies sur  le site https://granddebat.fr

C'est l’institut Opinionway qui a été chargé de l’analyse des contributions collectées sur le site.  Il est en effet attributaire depuis 2015 du lot 9 « Analyse de données issues de consultations en ligne » de l'appel d'offres lancé par le Service d’information du gouvernement (SIG).

Pour cela, Opinion Way a fait appel à l'entreprise QWAM Content Intelligence qui a développé  QWAM Text Analytics, un outil d’analyse automatique des données textuelles en masse (big data), faisant appel aux technologies du traitement automatique du langage naturel couplées à des techniques d’intelligence artificielle (apprentissage profond).

L'intelligence artificielle va prendre le relais avec cet outil qui combine le traitement automatique du langage et le "deep learning", cet apprentissage qui permet à la machine d'enrichir ses connaissances par l'expérience.

Le logiciel va notamment identifier, parmi les propositions des internautes, les notions qu'il connaît déjà.

Dans un deuxième temps, les analystes interviendront pour créer de nouvelles notions non connues par la machine et enrichir son dictionnaire.

Ensuite, la machine associera chaque proposition à une catégorie, puis à une sous-catégorie et les verbatims seront au final transformés en pourcentage.

OpinionWay précise que le protocole méthodologique qui sera appliqué comprend une intervention humaine systématique pour contrôler la cohérence des résultats et s’assurer de la pertinence des données produites et de la bonne compréhension du sens des propos des participants au débat.

Par ailleurs, toutes les contributions laissées par écrit dans les cahiers de doléances seront scannées à la Bibliothèque nationale de France. 

Une fois numérisés en photos, tous les fichiers seront transmis à un autre prestataire qui aura pour mission de les transformer en documents dactylographiques de manière à pouvoir faire ensuite les recherches par mots .

C’est alors que débutera l’analyse des cahiers sur le fond, sous l’égide du cabinet de conseils Roland Berger qui devra en restituer les grandes tendances.

Pour ce faire, il faudra recourir à la lexicométrie, cette technologie  capable de faire des associations avec des mots. L'algorithme va ainsi pouvoir classer les différentes contributions en fonction des mots et du sens.

Un test pratique grandeur nature donc pour l'IA.

Espérons surtout que le traitement des données, qui sera in fine validé par le collège de garants du Grand Débat National, assurera impartialité et transparence, l'algorithme ne pouvant restituer des résultats qu'en fonction de sa programmation initiale...

Mise à jour du 2 mars 2019

Le député de Seine-Saint-Denis M. Stéphane Peu a interrogé le Premier Ministre sur les conditions de transparence de l’analyse des données collectées lors du « Grand débat national » dans une question écrite du 1er mars 2019:  ''Quelles garanties, M. le Premier Ministre, allez-vous produire pour que cette indispensable transparence puisse être garantie dans les faits, et que chacun de nos concitoyens puisse en vérifier le fonctionnement ?'' https://www.stephanepeu.fr/wp-content/uploads/2019/03/201902-QE-Algorithmes.pdf

Me Thierry Vallat a été interrogé sur ce sujet par BFMTV  Grand débat: des algorithmes pour trier les préoccupations des Français

(crédits dessin: Cabinet Thierry Vallat)

Partager cet article
Repost0
7 février 2019 4 07 /02 /février /2019 10:51

 

On connaissait déjà le CFVR, l'algorithme de Bercy qui traque les fraudeurs fiscaux.

Et voilà désormais l'analyse prédictive au secours des finances publiques !

Rappelons que le principe consiste à analyser les données passées pour prédire les comportements futurs en utilisant des modèles prédictifs gràce à des algorithmes dédiés.

Un Arrêté du 29 janvier 2019 qui vient d'être publié au journal officiel du 5 février 2019 met en effet en place un traitement automatisé d’analyse prédictive relatif au contrôle de la dépense de l’Etat, aidé par des techniques d'intelligence artificielle.

Il est créé par le service à compétence nationale "Agence pour l'informatique financière de l'Etat" un traitement automatisé d'analyse prédictive destiné à assister les comptables publics assignataires de l'Etat dans la mise en œuvre des modalités de contrôle de la dépense prévues à l'article 42 du décret du 7 novembre 2012 .

Le traitement automatisé s'appuie sur des techniques d'intelligence artificielle et sur un ensemble de règles définies par le directeur général des finances publiques.

Le traitement automatisé analysera les résultats des contrôles de la dépense effectués par les comptables publics assignataires de l'Etat en fonction des caractéristiques des opérations. Ces caractéristiques comprennent notamment des données relatives aux fournisseurs, à l'organisation de la chaîne de la dépense et aux imputations budgétaires et comptables.


A partir de cette analyse, il déterminera la liste des dépenses présentant des risques d'irrégularité au regard des articles 19 et 20 du décret du 7 novembre 2012 susvisé.

Le traitement automatisé sera enrichi périodiquement des résultats des contrôles des comptables publics assignataires de l'Etat.

Encore un outil prédictif  censé permettre d‘anticiper les comportements pour constituer une véritable aide à la décision pour les grands argentiers de la République. En feront-ils bon usage ?

(crédits dessin: Cabinet Thierry Vallat)

 

Partager cet article
Repost0

Présentation

  • : Le blog de Thierry Vallat, avocat au Barreau de Paris (et sur Twitter: @MeThierryVallat)
  • : Blog d'actualités juridiques par Maître Thierry Vallat, avocat au Barreau de Paris (33 01 56 67 09 59) cabinet secondaire à Tallinn ISSN 2496-0837
  • Contact

Le Cabinet Thierry Vallat

    

Cabinet Thierry Vallat

Avocat inscrit sur le registre des mandataires sportifs et immobiliers

50, avenue de la Grande Armée 75017 Paris (cabinet secondaire Pikk 41- 10123 Tallinn)

Tel: 33(0)1.56.67.09.59

mail: thierryvallatavocat@pm.me

Activités dominantes: Droit des médias et de l'internet, droit numérique et des robots, droit pénal),

Recherche

Dans les médias récemment

RTL du 25 septembre 2021 sur les fuites de données

L'Obs du 23 septembre 2021 sur le CBD

Radio Courtoisie du 9 septembre 2021 sur la censure sur les réseaux sociaux

RT France du 18 août 2021 sur Twitter et la désinformation

RT France du 13 août 2021 sur l'affaire Pegasus

Sputnik France du 20 juillet 2021 sur la reconnaissance faciale

Le Parisien du 18 juillet 2021 sur les incitations à la violence par un député

BFMTV du 5 juillet 2021 sur la vaccination des salariés

RT France du 30 juin 2021 sur la centralisation des données de santé

BFMTV du 17 juin 2021 sur les violences sur les hommes politiques

Libération du 16 juin 2021 sur l'enfarinage de personnalités

France InfoTV du 14 juin 2021 sur le mandat d'arrêt international

BFMTV du 11 juin 2021 sur l'affaire Tradel

Le Parisien du 11 juin 2021 sur les raids numériques antivax

RMC du 10 juin 2021 sur l'art 222-13 du code pénal

BFMTV du 4 juin 2021 sur la violence sur les réseaux sociaux

Sputnik France du 4 juin 2021 sur l'affaire Mila

Public Sénat du 3 juin 2021 sur le cyberharcèlement

L'Express du 3 juin 2021 sur les raids numériques

France InfoTV du 3 juin 2021 sur le cyber harcèlement

Al Hurra du 30 avril 2021 sur le projet de loi antiterroriste

France Info du 29 avril 2021 sur la tribune des généraux

RMC du 29 avril 2021 sur le pass sanitaire

Sud Radio du 28 avril 2021 sur le projet de loi anti-terroriste

RT France du 5 avril 2021 sur la regulation des Gafam

Sputnik France du 23 mars 2021 sur les faux en écritures publiques

NextInpact du 17 mars 2021 sur le blocage sur Twitter par un élu

Sputnik France du 12 mars 2021 sur la surveillance du port des masques dans les transports

Revue Dessinée du 11 mars 2021 sur les drones

South China Morning Post du 5 mars 2021 sur le blocage de CGTN

Sud Radio du 3 mars 2021 sur la fin des CRP automatiques

RT France du 27 février 2021 sur la taxation des Gafam

FR3 du 21 février 2021 sur les réseaux sociaux nouvelle arme du fisc

Le Parisien du 21 février 2021 sur le pass sanitaire

Atlantico du 21 février 2021 sur l'utilisation des caméras et drones

Sud Radio du 19 février 2021 sur la surveillance par algorithme du fisc

RT France du 18 février 2021 sur les fakes news

Sputnik du 12 février 2021 sur la manipulation de l'information

Dossier Familial du 8 février 2021 sur la verbalisation au domicile pendant le confinement

Europe 1 du 7 février 2021 sur les risques pour les canulars de youtubeurs

Sud Radio du 4 février 2021 sur l'affaire du Siècle

Sud Radio du 5 janvier 2021 sur les fichiers de police

La Croix du 24 décembre 2020 sur les cagnottes solidaires

Sputnik du 21 décembre 2020 sur l'anonymat sur internet

Parisien du 7 décembre 2020 sur les fichiers de police

Le Figaro du 30 novembre 2020 sur l'affaire Zecler

L'Express du 28 novembre 2020 sur la loi Sécurité globale

Sputnik France du 20 novembre 2020 sur la loi Sécurité globale

Dossier Familial du 9 novembre sur les fichiers de police

France Info du 29 octobre 2020 sur la loi martiale et état de siège

France 24 du 22 octobre 2020 sur la dissolution d'associations

BFMTV du 21 octobre 2020 sur la justice pénale des mineurs

L'Express du 20 octobre 2020 sur la surveillance des réseaux sociaux

LCI du 20 octobre 2020 sur la publication de données personnelles

BFMTV du 16 octobre 2020 sur l'attestation de déplacement

Les Numériques du 14 octobre 2020 sur le déverouillage des téléphones

Le Figaro du 13 octobre 2020 sur le couvre feu

20 minutes du 23 septembre 2020 sur l'affaire Marvel Fitness

Al Hurra du 21 septembre 2020 sur le port du voile

RT France du 18 septembre 2020 sur l'interdiction de Tik Tok

LCI du 15 septembre 2020 sur la difficile reprise des lieux squattés

RMC du 5 septembre 2020 sur l'affaire Crocq et la diffusion sur Facebook

BFMTV du 4 septembre 2020 sur la décision du TA de Lyon sur le port du masque

Sputnik France du 29 août 2020 sur le redressement fiscal de Facebook

BFMTV du 29 août 2020 sur l'article injurieux contre Danielle Obono

Mediapart du 25 août 2020 sur l'interdiction de TikTok aux USA

Marianne du 26 août 2020 sur la légalité du topless sur la plage

RT France du 23 août 2020 sur l'interdiction de TikTok

Sputnik France du 17 août 2020 sur les rave parties

La Croix du 14 août 2020 sur le recours contre France télévisions sur la GPA

RT France du 8 août 2020 sur la labellisation des médias sur Twitter

Sputnik France du 4 août 2020 sur le bilan d'Hadopi

Mediapart du 30 juillet 2020 sur la droit de filmer la police

BFMTV le 13 juillet 2020 sur le port du masque obligatoire

Sud Radio du 7 juillet 2020 sur la nomination du Garde des Sceaux 

RT France du 7 juillet 2020 sur le droit de manifester

Al Hurra du 5 juillet 2020 sur la CJR

ZDNET du 3 juillet 2020 sur la transparence des algorithmes

Acteurs Publics du 30 juin 2020 sur l'open data des décisions de justice

RT France du 26 juin 2020 sur la reconnaissance faciale

ZDNET du 26 juin 2020 sur la Justice qui se numérise

RT France du 19 juin 2020 sur la loi Avia

La Croix du 10 juin 2020 sur l'accès des mineurs aux sites pornographiques

Le Journal des maires de juin 2020 sur la protection fonctionnelle des élus

Sud Radio du 9 juin 2020 sur la liberté d'expression 

RT France du 27 mai 2020 sur l'appli StopCovid

Sputnik France du 22 mai 2020 sur les données de santé

Al Hurra du 21 mai 2020 sur la loi Avia

RT France du 13 mai 2020 sur la loi Avia

Sputnik France du 13 mai 2020 sur la loi Avia

Sud Radio du 12 mai 2020 sur les plaintes déposées devant le gouvernement

Le Parisien du 11 mai 2020 sur la mise en place du déconfinement en entreprise

La Croix du 3 mai 2020 sur le fichier SIDEP

Sud Radio du 28 avril 2020 sur l'application StopCovid

Mediapart du 25 avril 2020 sur l'utilisation des drones de surveillance

GQ d'avril 2020 sur les deepfakes

Sud Radio du 13 avril 2020 sur le traçage numérique

RT France du 10 avril 2020 sur les drones de surveillance

La Croix du 8 avril 2020 sur la détention provisoire

Le Monde du droit du 6 avril 2020 sur le décret DataJust

BFM du 3 avril 2020 sur les drones de surveillance

Sputnik france du 1er avril 2020 sur la géolocalisation

France 2 et France Info du 3 mars 2020 sur le fichier Gendnotes

BFM du 21 février 2020 sur l'affaire Pavlenski

Sud Radio du 19 février 2020 débat sur la haine sur les réseaux sociaux

C News du 19 février 2020 sur le revenge porn

RT France du 18 février 2020 sur l'anonymat sur internet

BFM du 17 février 2020 sur le pornodivulgation

Sud Radio du 13 février 2020 sur le contrôle judiciaire et les demandes de remises en liberté 

Le Télégramme de Brest du 9 février 2020 sur les caméras de surveillance

RT France du 3 février 2020 sur la grève des avocats

La Croix du 30 janvier 2020 sur le déblocage des téléphones par la police

RT France du 21 janvier 2020 sur la Loi Avia sur la cyberhaine

France Info du 14 janvier 2020 sur le droit de filmer la police

Ouest France du 13 janvier 2020 sur le blocage des examens dans les facs

Libération du 10 janvier 2020 sur la doctrine d'emploi des LBO

RT France du 9 janvier 2020 sur la grève des avocats

France Inter du 31 décembre 2019 sur l'application Alicem

Medi 1 du 31 décembre 2019 sur l'affaire Carlos Ghosn

La Croix du 30 décembre 2019 sur la reconnaissance faciale

20 minutes du 30 décembre 2019 sur le SNDV

NextInpact du 26 décembre 2019 sur le SNDV

RT France du 24 décembre 2019 sur l'application Alicem 

LCI du 18 décembre 2019 sur les salariés forcés de changer de prénom

France Info du 17 décembre 2019 sur le droit de filmer la police

L'Obs du 11 décembre 2019 sur l'amendement Grand 

Libération du 10 décembre 2019 sur le droit de filmer la police

BFMTV du 6 décembre 2019 sur le droit de filmer dans une salle d'audience 

Ouest France du 5 décembre 2019 sur le covoiturage

CaféBabel du 15 novembre 2019 sur le statut des repentis

LCI du 6 novembre 2019 sur la légalité de la cagnotte Balkany

Le Parisien du 1er novembre 2019 sur les menaces par internet

BFMTV le 28 octobre 2019 sur le procès Balkany

Mediapart du 19 octobre 2019 sur le projet serenecity 

20 Minutes du 29 octobre 2019 sur la reconnaissance faciale

Le Parisien du 16 octobre 2019 sur le port du voile dans l'espace public

BFMTV du 14 septembre 2019 sur le procès Balkany

RT France du 13 septembre 2019 sur le libra en Europe

RFI du 15 août 2019 sur la légalité des tests ADN

La Croix du 13 août 2019 sur le fichage judiciaire

France 3 du 12 août 2019 sur la règlementation des trottinettes

LCI du 6 août 2019 sur le délit d'outrage sexiste un an après 

RT France du 24 juillet 2019 sur les sanctions CSA

BFMTV du 16 juillet 2019 sur le cadre juridique des émojis

BFM Business du 12 juillet 2019 sur les drones de surveillance

Sputnik du 11 juillet 2019 sur la taxe Gafa et les mesures de rétorsion us

RT France du 9 juillet 2019 sur la loi Avia

BFMTV et RMC du 9 juillet 2019 sur le procès de Bernard Tapie

La Croix du 5 juillet 2019 sur la loi Avia 

Le Figaro du 3 juillet 2019 sur la loi anti-fessée

France Inter du 25 juin 2019 sur Facebook et les contenus haineux

Public Sénat du 24 juin 2019 sur la canicule et le droit du travail

France Soir du 21 juin 2019 sur la légitime défense pendant les cambriolages

France 2 du 3 juin 2019 sur les drones de surveillance de la police

BFMTV du 29 mai 2019 sur l'utilisation de Facebook dans la succession Hallyday

L'Obs du 28 mai 2019 sur l'art 11 du Code de procédure pénale

L'Express du 23 mai 2019 sur le secret des sources des journalistes et le secret défense

RT France du 23 mai 2019 sur la collecte déloyale de données personnelles 

LCI du 22 mai 2019 sur le licenciement pour refus de travail du dimanche

Le Parisien du 22 mai 2019 sur la légalité des kits ADN

Sud Ouest du 21 mai 2019 sur l'affaire des 1000 potes

TF1 du 20 mai 2019 sur la saisie pénale contre les gilets jaunes

BFMTV du 20 mai 2019 sur le délit de corruption et l'affaire Balkany

Libération du 20 mai 2019 sur la collecte de données personnelles

BFMTV du 19 mai 2019 sur le délit de corruption et l'affaire Balkany

LCI du 18 mai 2019 sur la légalité de la saisie du patrimoine de Gilets jaunes

France Info du 17 mai 2019 sur le litige RN/FI sur les tracts electoraux

BFMTV du 17 mai 2019 sur la légalité des kits ADN

France Soir du 16 mai 2019 sur le droit des secours en mer

France Info du 16 mai 2019 sur la règlementation des affiches electorales

Sud Radio du 15 mai 2019 sur la lutte contre les contenus haineux sur internet

RT France du 14 mai 2019 sur la protection consulaire

Mieux Vivre votre argent du 9 mai 2019 sur la discrimination au logement 

Ouest France du 9 mai 2019 sur les cameras piétons de la police municipale 

France Info du 8 mai 2019 sur la violation de sépulture

LCI du 7 mai 2019 sur la discrimination au logement

RT France du 6 mai 2019 sur la règle d'équité du temps de parole de la campagne européenne

France 2 et France Info du 5 mai 2019 sur la sécurité des drones médicaux

LCi du 4 mai 2019 sur la pratique de la nasse 

Science et Avenir du 3 mai 2019 sur les drones

KBS du 1er mai 2019 sur la légalité des implants sous cutanés

L'Express du 30 avril 2019 sur les PMC

Libération et BFMTV du 26 avril 2019 sur le droit de filmer une interpellation

BFMTV du 20 avril 2019 sur le caractère probatoire des PMC

Arte du 14 avril 2019 sur la e-résidence en Estonie

France Soir du 2 avril 2019 sur la loi anti-cagoule

Public Sénat du 9 avril 2019 sur le financement des partis politiques

Le Télégramme du 9 avril 2019 sur le droit des drones

Marianne du 9 avril 2019 sur la taxe GAFA

La Voix du Nord du 7 avril 2019 sur les amendes LEZ à Anvers

RT France du 3 avril 2019 sur le blocage par Twitter de la campagne du gouvernement

LCI du 2 avril 2019 sur la fronde des prud'hommes contre les barèmes de licenciement

CGTN du 30 mars 2019 sur l'emploi des LBD

Libération du 30mars 2019 sur les produits chimiques codés

M6 du 29 mars 2019 sur la procédure en cours sur la loi applicable à l'héritage de Johnny Hallyday 

France Info du 23 mars 2019 sur les amendes pour manifestations interdites

TF1 et France 3 WE du 23 mars 2019 pour l'affaire des Milles Potes

C Dans l'Air du 23 mars 2019 sur les PMC

Huffington Post du 23 mars 2019 sur les drones de surveillance

France Info du 22 mars 2019 sur les interdictions de manifester

Sud Ouest et FR3 du 22 mars 2019 sur l'affaire des 1000 potes

Europe 1 et Le Figaro du 21 mars 2019 sur l'affaire des 1000 potes

Radio Classique, Sud Radio et RT France du 20 mars 2019 sur les produits marquants chimiques

BFMTV du 19 mars 2019 sur les PMC

Cheek Magazine du 19 mars 2019  sur les frotteurs du métro

Le Parisien du 19 mars 2019 sur les produits marquants chimiques

LCI du 19 mars 2019 sur les PMC

Le Figaro du 19 mars 2019 sur les PMC

BFMTV du 19 mars 2019 sur les arnques sur Facebook

TF1 du 18 mars 2019 sur l'article 40 du CPP

RMC du 18 mars 2019 sur les contraventions pour manifestation interdite

Canal Plus du 17 mars 2019 sur le cyberharcèlement

France Soir du 15 mars 2019 sur les arrestations abusives

TICPharma du 15 mars 2019 sur la Blockchain Vs RGPD

BFMTV du 14 mars 2019 sur les arnaques dans les publicités sur Facebook

GameKult du 6 mars 2019 sur le jeu violent rapde Day retiré par Valve

BFMTV du 1er mars 2019 sur la transparence de l'algorithme du Grand débat national 

Le Pélerin du 28 février 2019 sur les caméras de surveillance dans les églises

Blog du Modérateur du 28 février 2019 sur le comportement des salariés sur les réseaux sociaux

Public Sénat du 21 février 2019 sur les réseaux sociaux et les propos haineux

Le Parisien du 21 février 2019 sur comment lutter contre les propos haineux sur internet

Développez.com du 18 février 2019 sur le droit des émojis

Courrier des Cadres du 18 février 2019 sur les dérapages des salariés sur les réseaux sociaux

Süddeutsche Zeitung du 16 février 2019 sur le gaspillage alimentaire

France Soir du 15 février 2019 sur la loi Anticasseur

Courrier des Cadres du 15 février 2019 sur le licenciement causé par un harcèlement au travail

RT France du 15 février 2019 sur le refus d'accréditation de journalistes

France Info  du 15 février 2019 sur le cyberharcèlement

Sputnik News du 14 février 2019 sur l'espionnage des smartphones

Blog du Modérateur du 13 février 2019 sur l'utilisation des réseaux sociaux au travail

Public Sénat du 12 février 2019 débat sur les réseaux sociaux

Le Figaro du 12 février 2019 sur le cyberharcèlement 

Blog du Modérateur, France Info du 12 février 2019 sur la ligue du Lol

L'Express et Le Parisien du 11 février 2019 sur la ligue du LOl

Agoravox du 10 février 2019 sur les LBD

France Info du 10 février 2019 sur le gaspillage alimentaire

Le Parisien du 5 février 2019 sur la lutte contre le gaspillage alimentaire

Al Hurra du 4 février 2019 sur les relations Iran-UE et l'Instex

France Bleue, le Monde et RTL du 4 février 2019 sur le gaspillage alimentaire

RT France du 2 février 2019 sur les réseaux sociaux

Al Hurra du 25 janvier 2019 sur la légalité des LBD40

RT France du 25 janvier 2019 sur la neutralité du net

Figaro Magazine 24 janvier 2019 sur l'espionnage de Bercy via les réseaux sociaux

France Soir du 24 janvier 2019 sur le blocage des sites internet

LCI du 22 janvier 2019 sur la protection des données personnelles sur le site Grand Débat

Le Figaro du 21 janvier 2019 sur l'audition d'Alexandre Benalla au Sénat

Blockchain Land du 18 janvier 2019 sur la nouvelle règlementation de la blockchain en France

France Soir du 16 janvier 2019 sur la non assistance à personne en danger

Droit travail France du 16 janvier 2019 sur les chauffeurs Uber

CNN et France Soir du 15 janvier 2019 sur les amendes pour port du gilet jaune

RT France du 14 janvier 2019 sur l'affaire Lafarge

Gazette des Communes du 14 janvier 2019 sur le blocages des élus sur Twitter

Sputnik News du 14 janvier 2019 sur la reconnaissance faciale et ses dangers

LCI du 11 janvier 2019 sur la résistance des CPH pour les ordonnances Macron 

Le Parisien et l'Express du 9 janvier 2019 sur la cagnotte Leetchi du boxeur Dettinger

France 3 du 8 janvier 2019 sur les enjeux juridiques de la video surveillance en France

RT France du 8 janvier 2019 sur les pouvoirs du CSA

FranceInfo TV du 7 janvier 2019 sur les menaces de mort sur Twitter

20 Minutes du 4 janvier 2019 sur le vrai du faux des manifestations

CrowdFund Insider du 4 janvier 2019 sur le décret  blockchain

France Soir du 26 décembre 2018 sur la publication de l'identité des terroristes

RT France du 21 décembre 2018 sur la loi Fake news et le conseil constitutionnel

France 24 du 21 décembre 2018 sur la règlementation des drones

Radio  Méditerranée International du 20 décembre 2018 sur la GAV Carlos Goshn

France Soir du 11 décembre 2018 sur le travail à Noel et jour de l'an

RT France du 6 décembre 2018 sur le plan européen contre la désinformation

Capital du 30 novembre 2018 sur les food techs et la requalification des livreurs à vélos

Sputnik news du 26 novembre 2018 sur les robots soldats

20 Minutes du 25 novembre 2018 sur l'affaire Morandini

France Soir du 22 novembre 2018 sur la règlementation des trottinettes electriques

Femme actuelle du 22 novembre 2018 sur l'espionnage de son conjoint

RT France du 21 novembre 2018 sur la loi Fake News

Passeport Santé du 15 novembre 2018 sur le fichage ADN

Le Parisien du 14 novembre 2018 sur les fichiers de police

Dossier Familial du 14 novembre 2018 sur les Gilets Jaunes 

RT France du 13 novembre 2018 sur la liberté d'information

RT France du 6 novembre 2018 sur le rejet par le Sénat de la loi manipulation de l'information

Al Hurra du 5 novembre 2018 sur les mandats d'arrêts internationaux

France Info du 31 octobre 2018 sur les aides fiscales de l'Anah

Capital du 31 octobre 2018 sur la rupture conventionnelle

France Soir du 24 octobre 2018 sur les perquisitions et l'art 4 de la Constitution

RT France du 23 octobre 2018 sur la loi Fake news

BFM du 22 octobre 2018 sur la piétonnisation des berges

L'Est Républicain du 14 octobre 2018 sur la lutte contre le bizutage

Radio Classique du 11 octobre 2018 sur les sanction de l'ONU sur le port du voile

Le Parisien du 10 octobre 2018 sur le fichage des salariés

France Soir du 4 octobre 2018 sur le principe de fraternité

Al Hurra du 27 septembre 2018 sur la légalité d'une taxe Hallal

La Dépêche du Bassin du 27 septembre 2018 sur "l'affaire des Mille Potes"

Mieux VIvre votre argent de septembre 2018 sur les Ehpad

L'Express du 17 septembre 2018 sur l'algorithme antifraude de Bercy

Sputnik News du 14 septembre sur la taxation des Gafa

Radio Méditerranée International du 11 septembre 2018 sur les critiques envers la CPI

Ouest France du 8 septembre 2018 sur les dangers du covoiturage

Society du 7 septembre 2018 sur l'espionnage entre conjoints

France Soir du 6 septembre 2018 sur la loi ELAN et les locataires de HLM

RT France du 5 septembre 2018 sur le rapport Caps-Irsem

France 2 du 1er septembre 2018 au JT 20 h sur l'affaire BlablaCar 

France Info du 29 août 2018 sur les prélèvements ADN chez Prisma

BFMTV du 21 août 2018 sur les marchands de sommeil

RMC du 21 août 2018 interview par JJ Bourdin sur la soumission de persones vulnérables à un habitat indigne

France 2 du 20 août 2018 au JT de 20h pour parler lutte contre les marchands de sommeil

20 Minutes du 17 août 2018 sur la réquisition du scooter par un policier

Téléstar du 17 août 2018 sur l'affaire Morandini

France Info du 17 août 2018 sur la notion de réquisition par la police

Le Parisien du 16 août 2018 sur la réquisition d'un véhicule par la police

France Soir du 14 août 2018 sur les locations saisonnières

BFMTV du 10 août interview sur la responsabilité des gérants du camping inondé dans le Gard

Voici du 10 août 2018 sur le harcèlement de mineures par des youtubeurs

Le Parisien du 9 août 2018 sur le #balancetonyoutubeur

Sud Radio le 8 août 2018 sur le régime juridique des piscines familiales

Sputnik News du 8 août 2018 sur les néonicotinoïdes et le recours européen de Bayer 

Capital du 7 août 2018 sur le droit à la déconnexion

France Soir du 6 août 2018 sur le sexe au travail

Têtu du 6 août 2018 sur l'affaire Barnum

Capital du 3 août 2018 sur la responsabilité pénale des mineurs

RT France du 26 juillet 2018 sur la loi sur la loi Fake news

France Soir du 25 juillet 2018 sur le délit d'upskirting

France Info du 12 juillet 2018 sur l'accès des parents au compte Facebook de leur fille décédée

Radio Classique du 10 juillet 2018 sur le port du maillot de bain en ville

France Soir du 5 juillet 2018 sur les recours pour les notes du bac

France Soir du 4 juillet 2018 sur les enjeux juridiques de l'intelligence artificielle

RT France du 4 juillet 2018 sur la loi sur la manipulation de l'information

Revue Sang Froid de juillet 2018 sur les mandataires sportifs

RT France du 26 juin 2018 sur le détournement de fonds publics

M6 du 18 juin 2018 sur l'affaire des 1000 potes

France Soir du 18 juin 2018 sur les locations AirBnB

France24 du 5 juin 2018 sur le cannabis et la vente de CBD

Al Hurra du 30 mai 2018 sur la libértion des djihadistes fraçais

RT France du 30 mai 2018 sur la loi sur la manipulation des fausses informations

LCI du 28 mai 2018 sur la légitime défense

Aleteia du 25 mai 2018 sur le RGPD

France Soir du 25 mai 2018 sur le RGPD

BFM du 23 mai 2018 sur les enfants youtubeurs

RT France du 23 mai 2018 sur la loi Fake news

Le blog du modérateur du 22 mai 2018 sur le RGPD

Sputnik news du 22 mai 2018 sur la baisse des allocations sociales

Dernières Nouvelles Alsace du 21 mai 2018 sur les testaments numériques

Catherine Daar LIve du 17 mai 2018 sur le RGPD

Radio Classique du 14 mai 2018 sur les raids numériques

Agoravox du 4 mai 2018 sur le droit des robots

RT France du 30 avril 2018 sur la loi Fake News

Le Figaro du 27 avril 2018 sur le cadre légal des émojis

France 3 Corse du 25 avril 2018 sur le statut des repentis

France Soir du 25 avril 2018 sur le paiement des impôts

Huffington Post du 18 avril 2018 sur les remboursements de billets par la SNCF

Sud Ouest du 18 avril 2018 sur la correctionnalisation de l'affaire des viols à Arcachon

France Soir du 17 avril 2018 sur les affaires Lelandais

France Info du 17 avril 2018 sur les grèves Sncf

France 3 du 17 avril 2018 sur le remboursement des billets pendant les grèves

Marianne du 6 avril 2018 sur la police prédictive

RT France du 5 avril sur le projet de loi fake news

France Soir du 5 avril 2018 sur les CGU de Facebook

MediakWest du 5 avril 2018 sur le droit du ESport 

RT France du 1er avril 2018 sur les contrôles douaniers transfrontaliers

L'Humanité du 30 mars 2018 sur le projet Big date de Marseille

Revue Sang Froid du 29 mars 2018 sur le cyberHarcèlement

Village de la Justice du 26 mars 2018 sur le secret professionnel des avocats

France Soir du 21 mars 2018 sur la grève SNCF et les droits des usagers

Public Sénat du 19 mars 2018 débat sur le Projet de loi Données personnelles

France 24 du 19 mars 2018 sur la lutte contre la haine sur internet

France Soir du 16 mars 2018 sur l'outrage sexiste et le harcèlement

RT France du 15 mars 2018 sur les poursuites contre Aple et Google pour pratiques abusives

Al Hurra du 15 mars 2018 sur la réforme des prisons

La Tribune du 12 mars 2018 ur l'égalité salariale

Arte du 9 mars 2018 débat sur l'égalité salariale

France 24 du 1er mars 2018 sur la diffusion d'images violentes sur internet

France Soir du 27 février 2018 sur l'ouverture de la PMA 

Al Hurra du 26 février 2018 sur le PL sur la déradicalisation

RT France du 23 février 2018 sur l'interdiction du voile intégral en Europe

Les Echos du 23 février 2018 sur l'affaire Pitch et la protection des marques

Sputnik news du 21 février 2018 sur le statut de demandeur d'asile

France Soir du 19 février 2018 sur l'enregistrement d'une personne à son insu

M6 du 19 février 2018 sur le statut des repentis

Le Parisien Eco du 5 février 2018 sur le coût d'un stagiaire

France Soir du 5 février 2018 sur le don d'organes http://www.francesoir.fr/societe-sante/don-organe-refus-consentement-presume-quelles-regles-cadre-legal-carte-donneurs-etats-generaux-bioethique-loi-droit-thierry-vallat-avocat

Public Sénat du 31 janvier 2018 débat sur les voitures autonomes https://www.dailymotion.com/vid

France 2 du 29 janvier 2018 débat sur le revenge Porn https://www.france.tv/france-2/je-t-aime-etc/404927-revenge-porn-nouveau-danger.html

20 Minutes du 25 janvier 2018 sur la reconnaissance faciale dans les lycées http://www.20minutes.fr/societe/2208103-20180125-video-education-questions-posent-reconnaissance-faciale-abords-lycees-paca

20 Minutes du 24 janvier 2018 sur l'affaire Jeremstar et la preuve par Snapchat http://www.20minutes.fr/high-tech/2208271-20180124-video-affaire-jeremstar-video-postee-snapchat-peut-servir-preuve-devant-justice

France Soir du 19 janvier 2017 sur le bitcoin  http://www.francesoir.fr/tendances-eco-france/bitcoin-peut-creer-societe-dont-le-capital-constitue-de-crypto-monnaies-apport-numeraire-evaluation

France Soir du 19 janvier 2017 sur JeremStar et le revenge Porn http://www.francesoir.fr/culture-medias/affaire-jeremstar-buzz-blogueur-voulait-parler-de-revenge-porn-video-intime-masturbation-aqababe-dans-le-prochain-numero-salut-les-terriens-c8-slt-thierry-ardisson

France 2 du 17 janvier 2018 JT de 20h sur l'expulsion des Zadistes de NDDL

Editions Francis Lefebvre du 17 janvier 2018 sur la fiscalité es bitcoins https://www.efl.fr/actualites/fiscal/benefices-professionnels/details.html?ref=r-00a8a0ff-a6c0-4f7c-ab27-79e6f19f567f

ETB du 12 janvier 2018 sur la trêve hivernale en France

France 5 du 10 janvier 2018 interview dans C dans l'Air sur l'infraction d'outrage sexiste

M6 du 4 janvier 2018 dans le JT sur l'égalité salariale https://www.youtube.com/watch?v=XLyznd6NW28

Europe 1 du 4 janvier 2018 débat sur les fakes news http://www.europe1.fr/societe/une-loi-contre-les-fake-news-un-vrai-casse-tete-3537071

JDD du 1er janvier 2018 interview sur les sextorsions par internet http://www.lejdd.fr/societe/sextorsion-quand-les-hommes-sont-pris-pour-cibles-sur-internet-3533942

France 5 du 30 décembre 2017 interview pour C Dans l'air sur l'éthique des voitures autonomes

RT France du 30 décembre 2017 interview sur l'algorithme de Bercy traqueur de fraude fiscale 

Village de la justice du 28 décembre 2017 sur les amendes pour stationnement impayées https://www.village-justice.com/articles/stationnement-impaye-qui-change-1er-janvier-2018-avec-fps-recouvrement-des,26798.html?utm_source=dlvr.it&utm_medium=twitter&utm_campaign=RSS

Sputnik International du 22 décembre 2017 sur WhatsApp et Facebook https://sputniknews.com/business/201712221060238374-facebook-whatsapp-france-sanctions-commentary/

Sputnik France du 20 décembre 2017 débat sur la fin de la neutralité du Net https://fr.sputniknews.com/radio_desordre_mondial/201712211034444080-internet-usa/

France Soir du 20 décembre sur la trêve hivernale http://www.francesoir.fr/societe-faits-divers/treve-hivernale-logement-squat-loyers-impayes-expulsion-jugement-regles-droit-avocat-dates-novembre-mars-thierry-vallat-conditions

FranceInfoTV du 18 décembre 2017 Interview sur les drones

Les Echos du 14 décembre sur les bitcoins https://www.lesechos.fr/finance-marches/marches-financiers/0301023356585-impots-les-5-questions-a-se-poser-avant-dacheter-des-bitcoins-2138454.php

Europe 1 du 13 décembre 2017: interview sur les bitcoins http://www.europe1.fr/emissions/l-invite-d-europe-1-nuit/quelles-sont-les-precautions-a-prendre-pour-un-detenteur-de-bitcoins-3520253

Le Figaro du 12 décembre 2017 sur la fiscalité des bitcoins http://www.lefigaro.fr/conjoncture/2017/12/12/20002-20171212ARTFIG00260-le-bitcoin-dans-le-viseur-de-tracfin.php?utm_term=Autofeed&utm_campaign=Echobox&utm_medium=Social&utm_source=Twitter#link_time=1513113820

Runway Magazine du 12 décembre 2017 sur le harcèlement sexuel dans la mode https://runwaymagazines.com/models-sexual-harassment-world-fashion/

Capital du 7 décembre 2017 sur la fiscalité du bitcoin https://www.capital.fr/votre-argent/le-casse-tete-de-limposition-du-bitcoin-1259539

France Soir du 6 décembre 2017 sur le droit des achats en ligne http://www.francesoir.fr/lifestyle-shopping/les-regles-de-la-vente-achat-en-ligne-et-les-pieges-eviter-que-faire-livraison-remboursement-prix-deffectueux-thierry-vallat-droit-loi

20 Minutes du 4 décembre 2017 sur le projet Big Data à Marseille http://www.20minutes.fr/marseille/2180687-20171204-video-marseille-veut-utiliser-donnees-informatiques-ville-plus-sure-big-brother-prouesse-technologique

Sputnik News du 1er décembre 2017 interview sur la surtaxe sur les dividendes https://fr.sputniknews.com/france/201712011034123938-conseil-constitutionnel-entreprises-franaises/

Rolling Stone du 24 novembre 2017 sur Facebook royaume des morts https://www.rollingstone.fr/facebook-royaume-morts/

L'Express du 22 novembre 2017 sur le travail des enfants dans les chaines YouTube https://lexpansion.lexpress.fr/high-tech/youtube-ferme-la-chaine-toy-freaks-apres-des-accusations-de-maltraitance_1962598.html

France 24 du 14 novembre 2017 sur le financement de Daech par Lafarge

Mag RH du 13 novembre 2017  sur le droit des robots

Ouest France du 9 novembre 2017 sur le cyber-harcèlement https://www.ouest-france.fr/societe/harcelement-entre-enfants-le-smartphone-est-une-arme-de-destruction-massive-5367545

20 minutes du 8 novembre 2017 sur l'immunité européenne en matière de tweets   http://www.20minutes.fr/societe/2149443-20171012-provocation-haine-raciale-elu-fn-steeve-briois-peut-etre-juge-tweet

LCI du 3 novembre 2017 débat sur le congé paternité

Le Parisien du 3 novembre 2017 sur l'affaire Morandini http://www.leparisien.fr/week-end/des-revelations-des-inrocks-a-la-greve-d-itele-retour-sur-l-affaire-morandni-31-10-2017-7366032.php

TF1 JT de 13H du 31 octobre 2017 sur le scandale des voitures-épaves http://www.lci.fr/france/jt-13h-des-milliers-de-voitures-epaves-remises-en-circulation-illegalement-2068981.html

France Inter du 31 octobre 2017 sur la mort numérique https://www.franceinter.fr/societe/il-y-aura-bientot-plus-de-morts-que-de-vivants-sur-facebook

France Soir du 30 octobre 2017 sur les déguisements pour Halloween http://www.francesoir.fr/lifestyle-vie-quotidienne/halloween-costume-djihadistes-ou-clowns-tueurs-ces-deguisements-sont-ils-legal-terroriste-blague-faire--peur-plaisanterie-interdit-sanction-peines-avocat-thierry-vallat-prank-etat-urgence?platform=hootsuite

C8 du 23 octobre 2017 sur les travailleurs détachés http://replay.c8.fr/video/1466731

LCI du 20 octobre 2017 débat sr le harcèlement https://youtu.be/BDuLn_4TxwE

AlHurra du 20 octobre 2017 sur le financement de Daech par Lafarge https://www.facebook.com/alhurra/videos/10155602464496136/?hc_ref=ARQgkPNFcNTScvQwmjzSA2zDzZe3kV8d5fF1INqDWj-z8U_qUXakoS8r4QI_D50BR6A&pnref=story

CNews le 18 octobre 2017 sur le harcèlement

L'Express du 17 octobre sur le harcèlement de rue http://www.lexpress.fr/actualite/societe/harcelement-de-rue-une-notion-difficile-a-definir-et-compliquee-a-sanctionner_1953233.html

France Soir du 17 octobre 2017 sur le financement de Daesh par Lafarge http://www.lexpress.fr/actualite/societe/harcelement-de-rue-une-notion-difficile-a-definir-et-compliquee-a-sanctionner_1953233.html

LCI du 16 octobre 2017 sur le harcèlement de rue http://www.lci.fr/societe/harcelement-de-rue-agressions-sexuelles-sifflements-mains-aux-fesses-regards-insistants-frottements-insultes-salaces-tombe-sous-le-coup-de-la-loi-2067534.html

BFM du 15 octobre 2017 débat sur le harcèlement https://youtu.be/_S0NO-Jx9sE

Public Sénat débat du 11 octobre 2017 sur le harcèlement de rue https://twitter.com/twitter/statuses/918156787974422528

LCI du 10 octobre 2017 sur le fichage illégal de salariés http://www.lci.fr/societe/fichage-d-interimaires-chez-leroy-merlin-jusqu-ou-l-employeur-peut-il-legalement-aller-2066948.html?utm_source=dlvr.it&utm_medium=twitter

Le Figaro du 8 octobre 2017 sur le fichage illégal de salariés Leroy Merlin http://www.lefigaro.fr/social/2017/10/08/20011-20171008ARTFIG00111-boulet-branleur-un-listing-des-interimaires-de-leroy-merlin-declenche-une-enquete-interne.php

Le Parisien du 2 octobre 2017 sur l'interdiction de vapoter au bureau http://La vapoteuse au travail, c'est interdit... sauf exception

FranceInfo TV du 30 septembre 2017 sur les CGU des réseaux sociaux https://www.youtube.com/watch?v=1zfUMU8D3Pg&feature=youtu.be

Runway Magazine du 18 septembre 2017 La Haute Couture pour les nuls http://runwaymagazines.com/haute-couture-dummies/

Le Monde du 18 septembre 2017 sur les Hacker Houses http://www.lemonde.fr/festival/article/2017/09/18/hackerhouses-le-reve-americain-a-tout-prix_5187246_4415198.html

LCI du 14 septembre 2017 sur le travail des enfants sur les chaines YouTube http://www.lci.fr/societe/enfants-video-youtube-studio-bubble-teales-swan-the-voice-demo-jouets-travail-illegal-loisir-prive-web-2064120.html

Sputnik News du 23 août 2017 sur la réforme du travail détaché https://fr.sputniknews.com/international/201708241032771662-reforme-travai-macron/

Néon Mag du 22 août 2017 sur le logiciel espion Fireworld http://www.neonmag.fr/polemique-fireworld-propose-un-logiciel-espion-pour-decouvrir-si-votre-fils-est-gay-491263.html

France Soir du 21 août 2017 sur les litiges des locations saisonnières http://www.francesoir.fr/lifestyle-vie-quotidienne-votre-vacances-location-saisonniere-maison-hotel-tourne-mal-comment-se-defendre-en-cas-de-litige-droit-loi-regles-avocat-conseils-que-faire-caution-arrhes-acompte-remboursement-degats-internet-thierry-vallat-avocat

France Soir du 8 août 2017 sur le bras de fer entre Bruxelles et les Gafa dont les CGU sont illégales http://www.francesoir.fr/tendances-eco-monde/conditions-generales-utilisation-internet-pourquoi-union-europeenne-menace-facebook-google-et-twitter-utilisateurs-comission-sanctions-amendes-droit-europeen-avocat-thierry-vallat-consommateurs

Lexbase du 27 juillet 2017 édition professions n*245 sur la contestation des honoraires d'un avocat

France Soir du 24 juillet  sur les responsabilités en cas de noyade dans une piscine http://www.francesoir.fr/societe-faits-divers/quelle-responsabilite-en-cas-de-noyade-dans-votre-piscine-familiale-particuliers-enfants-regles-dispositif-securite-infractions-peines-amendes-voisin-avocat-loi-droit-thierry-vallat

Libération du 12 juillet 2017 sur les drones de livraison http://www.liberation.fr/futurs/2017/07/12/vos-achats-livres-par-drone-ce-n-est-pas-pour-tout-de-suite_1583307

France Soir du 7 juillet 2017 sur la règlementation des piscines http://www.francesoir.fr/lifestyle-vie-quotidienne/noyade-quelles-regles-de-securite-pour-les-piscines-en-france-privee-publique-danger-risques-responsabilite-alarme-barriere-couverture-abris-normes-loi-avocat-thierry-vallat

Linfo.re du 12 juin 2017 sur les déclarations de revenus http://www.linfo.re/france/societe/720805-declaration-de-revenus-ce-qu-il-faut-faire-en-cas-d-oubli-ou-d-erreur

L'Express du 31 mai 2017 sur l'affaire Ferrand http://www.lexpress.fr/actualite/societe/justice/affaire-ferrand-pourquoi-la-justice-n-ouvre-pas-d-enquete-pour-l-instant_1913481.html

Libération du 30 mai 2017 Peut-on se promener en maillot de bain en ville http://www.liberation.fr/france/2017/05/30/a-t-on-le-droit-de-bronzer-en-maillot-de-bain-en-ville_1573287

France Soir du 29 mai 2017: surbookings quels sont vos droits ? http://www.francesoir.fr/lifestyle-vie-quotidienne/surbooking-votre-avion-est-surbooke-quels-sont-vos-droits-compagnies-aeriennes-indemnisations-loi-droit-r%C3%A8gles-avocat-thierry-vallat-montant-remboursement

France Soir du 25 mai 2017 travaux, caution DG sortie du locataire quels recours ? http://www.francesoir.fr/lifestyle-vie-quotidienne/appartement-depart-sortie-travaux-caution-etat-des-lieux-que-faire-en-cas-de-litige-locataire-proprietaire-regles-droit-avocat-thierry-vallat-loi-recours

Sputnik News du 19 mai 2017 sur l'amende infligée à Facebook par la Commission européenne https://fr.sputniknews.com/international/201705191031458040-facebook-amende-argent/

France Inter du 19 mai 2017 sur les livraisons par drones d'Amazon

BFMTV du 9 mai 2017 sur la légalité de l'allaitement en public http://www.bfmtv.com/international/une-elue-australienne-allaite-son-bebe-au-parlement-serait-ce-possible-en-france-1160372.html

Runway Magazine du 7 mai 2017 sur le décret sur les photos retouchées de mannequins http://runwaymagazines.com/new-fashion-law/

Figaro du 6 mai 2017 sur le délit de diffusion de fake news  http://www.lefigaro.fr/elections/presidentielles/2017/05/06/35003-20170506ARTFIG00096-que-risquent-ceux-qui-diffusent-de-fausses-informations-a-l-approche-du-scrutin.php

France Soir du 6 mai 2017 sur le fonctionnement des bureaux de vote http://www.francesoir.fr/politique-france/presidentielle-bureaux-de-vote-ce-qui-est-autorise-ce-qui-est-interdit-election-scrutin-regles-loi-droit-thierry-vallat?platform=hootsuite

L'Express du 4 mai 2017 sur l'article 97 du code electoral http://www.lexpress.fr/actualite/politique/elections/compte-aux-bahamas-pourquoi-marine-le-pen-n-est-pas-inquietee-par-l-enquete_1905248.html

L'Express entreprise du 29 avril 2017 sur l'interdiction du vapotage au travail http://lentreprise.lexpress.fr/rh-management/droit-travail/vapoter-au-travail-sera-interdit-le-1er-octobre-2017_1903561.html

France Soir du 23 avril 2017 sur l'annulation de l'élection présidentielle http://www.francesoir.fr/politique-france/peut-annuler-election-presidentielle-resultats-fraude-scrutin-vote-conseil-constitutionnel-thierry-vallat-avocat-droit-loi

France Soir du 20 avril 2017 sur le report de l'election présidentielle http://www.francesoir.fr/politique-france/election-presidentielle-pourrait-elle-etre-reportee-report-premier-tour-empechement-candidat-thierry-vallat-avocat-mort-attentat-retrait

France Soir du 19 avril 2017 sur les sondages en période électorale http://www.francesoir.fr/politique-france/presidentielle-les-regles-relatives-aux-sondages-pendant-la-campagne-officielle-marge-erreur-candidats-medias-premier-second-tour-droit-regles-loi-avocat-thierry-vallat-fiabilite-csa-internet-en-ligne

France Soir du 7 avril 2017 sur les emplois fictifs présumés du FN http://www.francesoir.fr/politique-france/emplois-fictifs-front-national-fn-presumes-au-conseil-regional-du-nord-pas-de-calais-que-risquent-david-rachelin-enquete-premiminaire-poursuites-peines-avocat-thierry-vallat

France Soir du 14 mars 2017 sur le port du foulard au travail http://www.francesoir.fr/societe-faits-divers/port-du-voile-au-travail-laicite-et-discriminations-la-justice-europeenne-tranche-foulard-loi-droit-cjue-avocat-thierry-vallat-islam-religions?platform=hootsuite

Radio Orient du 14 mars 2017 itw sur l'interdiction du port du voile en entreprise http://www.radioorient.com/cour-europeenne-une-entreprise-peut-interdire-le-port-de-signes-religieux/

France Soir du 11 mars 2017 sur la violation du secret de l'instruction http://www.francesoir.fr/politique-france/penelopegate-qu-est-ce-que-la-violation-du-secret-de-instruction-francois-fillon-penelope-parquet-national-financier-pnf-juges-avocats-thierry-vallat-droit-proc%C3%A9dure

Sputnik News du 10 mars 2017 débat sur l'intelligence artificielle https://fr.sputniknews.com/radio_desordre_mondial/201703101030396959-intelligence-artificielle/

Agefi Actifs du 3 mars 2017 sur l'affaire Apollonia http://www.agefiactifs.com/droit-et-fiscalite/article/affaire-apollonia-letau-se-resserre-autour-des-76473

France Soir du 1er mars 2017 sur le droit à l'oubli sur internet http://www.francesoir.fr/lifestyle-vie-quotidienne-droit-oubli-sur-internet-comment-marche-le-droit-au-dereferencement-moteur-recherche-google-vie-prive-referencement-lois-cnil-europe-justice-droit-thierrry-vallat-avocat-disparaitre

Journal du Management juridique n°55 du 28 février 2017 sur l'obligation de l'employeur de dénoncer ses salariés chauffards http://fr.calameo.com/read/000000178bf08874a4147

L'Opinion du 23 février 2017 sur la plainte pour faux visant Audrey Azoulay http://www.lopinion.fr/edition/politique/ministre-audrey-azoulay-visee-plainte-faux-en-ecriture-publique-120000

France Soir du 22 février 2017 sur la notion de conflit d'intérêt http://www.francesoir.fr/politique-france/affaire-solere-la-notion-de-conflit-interet-en-question-polemique-cadre-legal-loi-thierry-vallat-prise-illegal-interet-fillon-hatvp-cahuzac-deputes-elus

LCI du 17 février 2017 itw sur le slogan en anglais de Paris 2024 http://www.lci.fr/sport/jo-2024-plusieurs-associations-attaquent-le-slogan-en-anglais-de-paris-la-plainte-peut-elle-aboutir-2026377.html

Public Sénat du 14 février 2017 sur le délit de consultation de site terroriste https://www.publicsenat.fr/emission/senat-360/le-nouveau-rendez-vous-de-l-information-senatoriale-53205 

France Soir du 11 février 2017 sur la notion de viol dans l'affaire Théo http://www.francesoir.fr/societe-faits-divers/affaire-theo-aulnay-sous-bois-partir-de-quand-peut-parler-de-viol-violences-loi-droit-avocat-thierry-vallat-policiers-matraque-juge-igpn

BFMTV du 10 février 2017: itw sur les caméras piétons de la police municipale http://www.bfmtv.com/police-justice/cameras-pietons-pour-policiers-un-systeme-anti-violence-et-anti-bavure-1100293.html

France24 du 9 février 2017: itw sur le Parquet national financier http://www.france24.com/fr/20170209-avocats-francois-fillon-penelope-pnf-parquet-national-financier-dessaisir-justice

La Croix du 7 février 2017: itw sur la compétence du Parquet national financier sur l'affaire Fillon http://www.la-croix.com/France/Politique/Le-parquet-national-financier-competent-dans-laffaire-Fillon-2017-02-07-1200823089?utm_medium=Social&utm_campaign=Echobox&utm_source=Twitter&utm_term=Autofeed#/link_time=1486475997

Le Monde du 6 février 2017 itw sur le phishing ou le hameçonnage http://www.lemonde.fr/argent/article/2017/02/06/hameconnage-la-banque-doit-vous-rembourser-si-elle-ne-peut-prouver-votre-negligence_5075315_1657007.html

Libération du 27 janvier 2017 itw sur le sexisme et la modération sur Facebook http://www.liberation.fr/france/2017/01/27/pourquoi-des-feministes-denoncent-la-moderation-de-facebook_1543436

France Soir du 25 janvier 2017 sur les emplois fictifs http://www.francesoir.fr/politique-france/emplois-fictifs-d%C3%A9finition-quelle-peine-encourue-risques-penelope-fillon-fran%C3%A7ois-loi-droit-jurisprudence-thierry-vallat-avocat

Radio Méditerranée Internationale Interview du 23 janvier 2017 sur les vignettes anti-pollution 

Sputnik News du 20 janvier 2017 interview sur le soft power de Facebook https://fr.sputniknews.com/france/201701201029689183-facebook-france-startup/

France Soir du 18 janvier 2017 sur la responsabilité d'EDF en cas de coupures http://www.francesoir.fr/lifestyle-vie-quotidienne/vague-de-froid-quelle-responsabilite-pour-edf-fournisseurs-en-cas-de-coupures-de-courant-electricit%C3%A9-thierry-vallat-droits-lois

Slate du 18 janvier 2017 sur le harcèlement à domicile http://www.slate.fr/story/134768/services-aboli-frontieres-intime

France Soir du 17 janvier 2017: décryptage de l'affaire Buffy Mars http://www.francesoir.fr/societe-faits-divers/sms-de-drague-quelles-sanctions-pour-le-technicien-orange-et-les-harceleurs-de-buffy-mars-harcelement-twitter-facebook-texto

BFMTV du 17 janvier 2017 interview sur la gifle à Manuel Valls et ses conséquences http://www.bfmtv.com/police-justice/manuel-vals-gifle-que-risque-le-jeune-homme-interpelle-1083960.html

Le Parisien du 17 janvier 2017 sur l'affaire Buffy Mars http://www.leparisien.fr/laparisienne/societe/harcelement-une-blogueuse-denonce-puis-se-fait-harceler-sur-twitter-17-01-2017-6579348.php#xtor=AD-1481423553

Le Figaro du 13 janvier 2017 interview sur le fichage illégal des bénévoles de la Croix-Rouge http://www.lefigaro.fr/actualite-france/2017/01/13/01016-20170113ARTFIG00351-quand-la-croix-rouge-fichait-ses-benevoles-en-secret.php

Le Parisien du 7 janvier 2017 interview sur la fermeture du site Babylon 2.0 http://www.leparisien.fr/societe/sur-facebook-babylone-2-0-enfin-ferme-le-groupe-partageait-des-photos-volees-de-femmes-nues-07-01-2017-6538266.php

Neon Mag du 6 janvier 2017 interview sur les groupes Babylon 2.0 et le revengeporn http://www.neonmag.fr/babylone-2-0-le-groupe-facebook-secret-qui-diffuse-des-photos-volees-de-femmes-nues-482095.html

LCI du 28 décembre 2016 interview sur les caméras pour les policiers municipaux http://www.lci.fr/societe/cameras-sur-les-policiers-municipaux-et-les-agents-de-securite-sncf-et-ratp-vous-avez-ete-filme-voici-ce-que-dit-la-loi-2019176.html

Village de la justice du 28 décembre 2016 sur la résurrection numérique et le droit à l'image http://www.village-justice.com/articles/Resurrection-numerique-quelle-legalite-exploitation-image-artiste-mort,23852.html

Sputnik news du 21 décembre 2016 sur le rachat de WhatsApp par Facebook https://fr.sputniknews.com/points_de_vue/201612211029289418-facebook-mensonge-bruxelles/

C8 du 14 décembre 2016 sur la règlementation des drones http://www.c8.fr/c8-docs-mags/pid8478-c8-focus.html

LCI du 30 novembre 2016 sur la surveillance des échanges internet par l'employeur http://www.lci.fr/societe/vie-privee-au-travail-votre-employeur-a-t-il-le-droit-de-surveiller-ce-que-vous-faites-sur-internet-2015021.html

Weka du 16 novembre 2016 sur le rétablissement de l'autorisation de sortie de territoire pour les mineurs http://www.weka.fr/actualite/administration/article/lautorisation-de-sortie-du-territoire-pour-les-mineurs-non-accompagnes-redevient-obligatoire-a-partir-du-15-janvier-2017-44552/

Gameblog du 1er novembre 2016 sur le cadre légal des agressions sexuelles virtuelles http://www.gameblog.fr/news/63348-agressee-sexuellement-en-realite-virtuelle-elle-raconte-son-

Konbini du 21 octobre 2016: interview sur le Cyber-harcèlement http://www.konbini.com/fr/tendances-2/cyberharcelement-marre-etre-victime/

Lexbase Ed Professions du 29 septembre 2016 sur le devoir de conseil des avocats

RTS du 29 septembre 2016: itw sur les actions en justice contre Pokemon Go

Vice News du 20 septembre 2016: que risque l'auteur d'une fausse attaque terroriste ? https://news.vice.com/fr/article/que-risque-lauteur-dune-fausse-alerte-terroriste

BFMTv du 19 septembre 2016: débat sur le swatting http://www.bfmtv.com/mediaplayer/video/fausse-alerte-terroriste-un-adolescent-a-ete-arrete-dans-la-marne-865457.html

L'Express du 12 septembre 2016 sur l'affaire Morandini http://www.lexpress.fr/actualite/medias/jean-marc-morandini-veut-etre-entendu-rapidement-par-la-justice_1829584.html

Sputnik News du 9 septembre 2016 débat sur les nouvelles technologies https://soundcloud.com/sputnik_fr/lancement-de-liphone-7-est-ce-que-la-technologie-nous-sauvera-dun-avenir-dystopique-ou-en-creera-t-elle-un

RMC du 8 septembre 2016: débat sur la lutte contre le sexisme http://rmc.bfmtv.com/mediaplayer/aud

BFMTV du 24 août 2016: interview sur les dangers de PokémonGo au bureau http://www.bfmtv.com/societe/jouer-a-pokemon-go-au-bureau-peut-s-averer-risque-1029223.html

France 3 du 12 août 2016 sur l'affaire Take Eat Easy http://france3-regions.francetvinfo.fr/paris-ile-de-france/paris/paris-la-fronde-des-livreurs-de-repas-velo-1064893.html

Europe 1 du 12 août 2016: interview sur le dossier Take Eat Easy http://www.europe1.fr/emissions/europe-1-bonjour/europe-bonjour-julia-martin-120816-2818891

La Croix du 10 août 2016 sur la requalification des contrats des coursiers à vélo http://www.la-croix.com/Economie/Social/Les-livreurs-de-repas-a-velo-se-rebellent-2016-08-10-1200781385

France Inter du 3 août 216 sur les problèmes juridiques posés par l'appli Périscope https://www.franceinter.fr/emissions/le-debat-de-midi/le-debat-de-midi-03-aout-2016

BFMTV du 28 juillet 2016 sur le harcelement sexuel et le travail dissimulé http://www.bfmtv.com/mediaplayer/video/trois-plaintes-deposees-contre-jean-marc-morandini-846243.html

Les Inrocks du 20 juillet 2016: suite de l'affaire Morandini http://abonnes.lesinrocks.com/2016/07/19/actualite/enquete-pratiques-de-jean-marc-morandini-suite-11854401/

Rue89 L'Obs du 15 juillet 2016 sur la diffusion de contenus choquants sur internet http://rue89.nouvelobs.com/2016/07/15/nice-risquez-si-partagez-photos-victimes-264651

FranceTVInfo du 14 juillet 2016: interview sur l'affaire Morandini http://www.francetvinfo.fr/economie/medias/morandini/affaire-morandini-c-est-du-harcelement-caracterise-affirme-l-avocat-des-acteurs-des-faucons_1546669.html

Les Inrocks du 13 juillet 2016 sur les pratiques de la société de production de JM Morandini http://abonnes.lesinrocks.com/2016/07/12/actualite/enquete-pratiques-de-jean-marc-morandini-11852954/

Sputnik News du 11 juillet 2016 sur le droit à la déconnexion http://Thierry Vallat: Il faudra une charte détaillée qui indique ... - SoundCloud 

Radio Canada du 6 juillet 2016 Interview sur la condamnation de Lionel Messi pour fraude fiscale 

Sputnik News du 5 juillet 2016 sur les déclaration de Manuel Valls sur le dumping social et la directive de 1996 https://soundcloud.com/sputnik_fr/me-thierry-vallat-ca-me-semble-audacieux-de-dire-quon-nappliquerait-pas-la-directive?utm_source=soundcloud&utm_campaign=share&utm_medium=facebook

Slate du 1er juillet 2016 sur Serge Aurier et l'appli Periscope http://www.slate.fr/story/120325/serge-aurier-periscope-paye

Le Journal du Management n°52 (juillet-août 2016): fiscalité des bitcoins et cryptomonnaies http://fr.calameo.com/read/000000178209f1e043d9b

L'Opinion du 15 juin 2016 interview sur les conséquences juridiques du Jasta http://www.lopinion.fr/edition/international/terrorisme-en-voulant-punir-l-arabie-saoudite-senat-americain-provoque-104741?utm_source=twitter&utm_medium=social&utm_content=content&utm_campaign=cm

La Croix du 16 mai 2016 interview sur le litige entre Uber t l'Urssaf sur le statutd des chauffeurs http://www.la-croix.com/Economie/Social/Pour-l-Urssaf-le-chauffeur-Uber-est-un-salarie-2016-05-16-1200760509

Public Sénat du 13 mai sur les dangers de Périscope http://www.publicsenat.fr/lcp/politique/periscope-l-application-sans-limites-1347939

La Croix du 12 mai 2016 interview sur l'appli Periscope http://www.la-croix.com/France/Periscope-questions-apres-drame-2016-05-12-1200759614?utm_medium=Social&utm_source=Twitter&utm_campaign=Echobox&utm_term=Autofeed#/link_time=1463066713

Sputnik News du 10 mai 2016: interview sur le soutien des avocats français à leurs confrères turcs emprisonnés https://soundcloud.com/sputnik_fr/thierry-vallat-lordre-des-avocats-francais-est-solidaire-des-confreres-turcs-arretes

Public Sénat le 14 avril 2016: débat du sur le fichier PNR

20 MInutes du 14 avril 2016: un employeur qui demande un changement de prénom légal ou pas ? http://www.20minutes.fr/economie/1826595-20160414-employeur-demande-salarie-changer-prenom-legal

RMC du 25 mars 2016: interview de jean-Jacques Bourdin sur le fichier PNR http://www.thierryvallatavocat.com/2016/03/mise-en-place-d-un-fichier-pnr-europeen-et-lutte-contre-le-terrorisme-me-thierry-vallat-interroge-sur-rmc-le-25-mars-2016.html

Le Monde du 22 mars 2016: Peut-on être licencié pour utiliser les réseaux sociaux au travail http://www.lemonde.fr/emploi/article/2016/03/22/peut-on-etre-licencie-pour-utiliser-les-reseaux-sociaux-a-titre-personnel-au-travail_4888193_1698637.html

Sputniknews du 11 mars 2016 sur le jugement américan condamnant l'Iran à indeminiser les victimes du 11 septembre https://fr.sputniknews.com/points_de_vue/201603111023300130-iran-usa-11-septembre/

BFM Business du 3 mars 2016 sur l'usage de twitter au travail http://bfmbusiness.bfmtv.com/emploi/tweeter-4-fois-par-jour-au-travail-n-est-pas-un-motif-de-licenciement-957155.html

Ouest France du 25 février 2016 Interdiction du vapotage dans les lieux publics http://www.ouest-france.fr/sante/addictions/tabac/vapotage-linterdiction-recommandee-dans-tous-les-lieux-publics-4056069

Sputniknews du 25 février 2016 sur l'amende fiscale de 1,6 milliard d'€ infligée à Google http://fr.sputniknews.com/points_de_vue/20160226/1022747386/france-google-impots.html#ixzz41XeliIC6

Le Parisien du 21 février 2016 sur le sextorsion http://www.leparisien.fr/faits-divers/les-sextorsions-envahissent-le-net-21-02-2016-5565269.php#xtor=AD-1481423553

Sputnik news du 18 février 2016 sur la légalité du blocage de sites internet http://fr.sputniknews.com/points_de_vue/20160218/1021896666/france-internet-blocage.html

Lexbase (n°641 du 28 janvier 2016): nom de domaine des avocats et art 10.5 du RIN http://images.lexbase.fr/sst/N0913BWQ.pdf

L'Humanité du 12 janvier 2016: le cadre légal du Esport  http://www.humanite.fr/loi-numerique-laddiction-portee-de-clic-595184

Village de Justice du 29 décembre 2015: La France se dote d'une nouvelle règlementation sur les drones civilshttp://www.village-justice.com/articles/France-dote-une-nouvelle,21130.html

La Tribune du 17 décembre 2015 sur l'indemnisation des victimes d'attentat http://www.latribune.fr/economie/france/attentats-de-paris-l-indemnisation-des-victimes-atteindrait-300-millions-d-euros-536831.html

D8 interview pour le magazine "En quête d'actualité" du 16 décembre 2015 : la règlementation des drones http://www.d8.tv/d8-docs-mags/pid5198-d8-en-quete-d-actualite.html?vid=1342386

Lexbase (n°636 du 10 décembre 2015): précisions sur la consultation des pièces pendant la garde à vue http://images.lexbase.fr/sst/N0227BWC.pdf

Village de la Justice du 23 novembre 2015: le droit de l'Esport dans le projet de loi numérique http://www.village-justice.com/articles/droit-sport-dans-Projet-Loi,20900.html

RT France du 10 novembre 2015: arrêt CEDH Dieudonné https://francais.rt.com/france/10045-cour-europeenne-droits-lhomme-rejette

Radio Orient: débat du 5 novembre 2015 sur la réforme du droit du travail http://www.radioorient.com/live/?tab=podcast&id=27826

Lexbase du 15 octobre 2015 sur la fragilisation des droits de la defense pendant la grève des avocats http://images.lexbase.fr/sst/N9379BUW.pdf

L'Express du 2 octobre 2015 sur les amendes pour jets de mégots sur la voie publique: http://votreargent.lexpress.fr/consommation/paris-est-elle-la-seule-ville-concernee-par-l-amende-pour-jet-de-megot_1721944.html

Lexbase du 17 septembre 2015 sur les perquisitions en cabinet d'avocats et l'arrêt CEDH Sérvulo c/Portugal http://www.presentation.lexbase.fr/sites/default/files/actualites/fichiers/lj_625.pdf

Archimag n°287 de septembre 2015: neutralité et loyauté des plateformes numériques http://Numéro 287 : Démat des factures : passage à l'acte

Vice News du 31 août 2015 sur les soupçons de chantage dans l'affaire Eic Laurent/Roi du Maroc https://news.vice.com/fr/article/les-deux-journalistes-francais-accuses-davoir-fait-chanter-le-roi-du-maroc-ont-donne-leur-version-des-faits

Village de la Justice du 21 août 2015: pour un véritable droit au renvoi d'audience http://www.village-justice.com/articles/Pour-veritable-droit-renvoi,20261.html

Version Fémina du 6 juillet 2015 sur les sanctions pour abandon de détritus sur la voie publiques

Lexbase du 2 juillet 2015 sur les honoraires de postulation 

France Info: interview du 10 juin 2015 sur l'interdiction de l'appli Gossip https://www.youtube.com/watch?v=o14NjTYrVVk

Sud Radio: débat du 4 juin 2015 sur portable et harcelement scolaire http://www.sudradio.fr/Podcasts/Seul-contre-tous/Gossip-il-faut-interdire-le-portable-avant-la-fin-du-lycee

L'Obs du 4 juin 2015 sur les drones de l'info

Libération du 3 juin 2015 sur l'application Gossip http://www.liberation.fr/societe/2015/06/03/gossip-l-appli-accusee-de-favoriser-le-harcelement_1322045

Europe 1 Interview du 2 juin 2015 sur le cyber harcèlement http://www.europe1.fr/societe/gossip-lapplication-dans-le-viseur-des-associations-1350076#utm_source=dlvr.it&utm_medium=twitter

Weka du 18 mai 2015: Pollution de l'air procdure d'infraction de la Commission Européenne contre la France http://www.weka.fr/actualite/developpement-durable/article/pollution-lair-particules-fines-procedure-dinfraction-commission-europeenne-contre-france/

La Tribune du 23 avril 2015: "2 ans après le Rana Plaza" interview sur le devoir de vigilance et responsabilité sociétale des entreprises  http://www.latribune.fr/edition-quotidienne/23-04-2015/focus/commerce-ce-que-le-rana-plaza-a-change-1447.html#enrichments_article

Lexbase (n°608 du 9 avril 2015): vers l'élaboration d'un véritable droit des drones http://images.lexbase.fr/sst/N6841BUW.pdf

Metronews du 23 mars 2015: interview sur les poursuites pénales contre les bénéficiaires d'un bug informatique dans une station service http://www.metronews.fr/info/bug-dans-une-station-service-de-l-herault-les-clients-m-insultaient-et-me-bousculaient-pour-pouvoir-faire-le-plein-a-5-euros/mocw!FhNku0n2vQraE/

Expoprotection du 16 mars 2015: "les employeurs condamnés à prévenir le burn-out" http://www.expoprotection.com/?IdNode=1571&Zoom=1fbf527b7549e1ea4635c97e6f06fcc0&Lang=FR

Europe 1: interview du 11 mars 2015 sur le swatting et les risques pénaux encourus http://www.europe1.fr/societe/swatting-que-risquent-les-auteurs-de-ces-canulars-made-in-usa-2396671

Weka du 9 mars 2015 "contrats de génération: un décret du 3 mars 2015 en facilite l'accès" http://www.weka.fr/actualite/emploi/article/contrats-generation-decret-du-3-mars-2015-en-facilite-lacces/

Vice News du 7 mars 2015: interview sur le jugement Facebook du 5 mars 2015 https://news.vice.com/fr/article/facebook-courbet-justice-francaise

LCI (6 mars 2015): interview sur le sexisme au travail http://videos.tf1.fr/infos/2015/le-sexisme-au-travail-redoutable-instrument-d-exclusion-8575434.html

Lexbase (n°603 du 5 mars 2015): braconniers du droit ou plate-forme juridique légale les enseignements du jugement avocat.net http://presentation.lexbase.fr/sites/default/files/actualites/fichiers/lj_603.pdf

Lexbase (n°601 du 12 février 2015): le droit d'accès de l'avocat au dossier complet de l'information http://www.presentation.lexbase.fr/la-lettre-juridique-ndeg601-du-12-fevrier-2015

Metronews du 10 février 2015: interview sur la fraude fiscale après le swissleaks http://www.metronews.fr/info/swissleaks-hsbc-fraudeurs-fiscaux-voici-les-bons-conseils-du-fisc-pour-vous-en-sortir/mobj!HKyMtcffg25A/ 

Vice News du 6 février 2015: interview sur la violation du secret de l'instruction  https://news.vice.com/fr/article/36-quai-orfevres

Lexbase (n°598 du 22 janvier 2015): "menaces de mort à un avocat" http://www.presentation.lexbase.fr/sites/default/files/actualites/fichiers/lj_598.pdf

ETV (14 janvier 2015): intervention dans le reportage du magazine d'information estonien Pealtnägija sur la contrefaçon http://uudised.err.ee/v/majandus/aee45037-b7f0-4356-9044-7277ab86724f

Le Nouvel Economiste du 9 janvier 2015: "défiscalisation immobilière, aides et conseils" http://www.lenouveleconomiste.fr/dossier-art-de-vivre/defiscalisation-immobiliere-aides-et-conseils-25647/

Weka du 15 décembre 2014:"le sandale des dons de RTT encore interdits de fait aux agents publics" http://www.weka.fr/actualite/rh-publiques-thematique_7849/le-scandale-du-don-de-rtt-encore-interdit-de-fait-aux-agents-publics-article_8628/

Le Figaro du 21 novembre 2014: "Crime organisé le nouveau statut des repentis" http://www.lefigaro.fr/actualite-france/2014/11/21/01016-20141121ARTFIG00436-crime-organise-le-nouveau-statut-du-repenti-en-cinq-questions.php

BFM Business l'Atelier numérique du 8 novembre 2014 débat sur la règlementation des drones civils http://bfmbusiness.bfmtv.com/mediaplayer/audio/bfm-0811-atelier-numerique-17h-18h-119937.html

RMC: interview du 31 octobre 2014 sur le démarchage des avocats

BFM Business émission-débat du 21 octobre 2014 sur la pénibilité au travail http://bit.ly/1wsG7lP

ExpoProtection du 13 octobre 2014: "les 6 décrets sur la pénibilité au travail viennent d'être publiés" http://www.expoprotection.com/site/FR/L_actu_des_risques_professionnels_naturels__industriels/Zoom_article,I1571,Zoom-fed7eb81350aeaa93a0129555ee4db66.htm 

Atlantico.fr (23 septembre 2014): interview sur les fraudes aux aides sociales par les britanniques installés en France http://www.atlantico.fr/decryptage/ces-britanniques-installes-en-france-pour-qui-aventure-tourne-au-cauchemar-pauvrete-voire-fraude-catharine-higginson-thierry-1760330.html#3buYAEZKEpoSO7wJ.01

Le Monde du Droit (9 septembre 2014): "faire et défaire la loi ALUR: quelle cohérence ?") http://www.lemondedudroit.fr/decryptages-profession-avocat/194351-faire-et-defaire-la-loi-alur-quelle-coherence-.html

LCP-Public Sénat ( 28 juin 2014): interview sur l'arrêt Baby Loup du 25 juin 2014 e le principe de laïcité https://www.youtube.com/watch?v=1Lui5Cma1lE

Le Figaro (17 juin 2014): interview sur les exonérations de taxe d'habitation http://www.lefigaro.fr/impots/2014/06/17/05003-20140617ARTFIG00302-taxe-d-habitation-les-exonerations-pourraient-faire-augmenter-les-impots.php

Cahiers Lamy du CE (n°138 de juin 2014): "attaques en règle contre le forfait-jours"http://www.wk-rh.fr/preview/BeDhHlEjDiJnIoHkKoHl/presse/cce/les_cahiers_lamy_du_ce_2014/attaques_en_regle_contre_le_forfait_jours__resistera-t-il_au_temps_qui_passe_

BFM TV (31 mai 2014): interview sur Google et le droit à l'oubli numérique https://www.youtube.com/watch?v=Jzyg0eCldiQ

Cahiers Lamy du CE (n°135 de mars 2014) : « vapoter au bureau : vrai droit ou fumeux détournement de la loi Evin ? »http://www.wk-rh.fr/actualites/detail/74306/vapoter-au-bureau-vrai-droit-ou-fumeux-detournement-de-la-loi-evin-.html

Journal du management juridique (mars 2014) : « Intensification de la lutte contre la fraude fiscale » http://issuu.com/legiteam/docs/jmj39/11?e=1003431/7212830

Cahiers Lamy du CE (n°132 de décembre 2013) :   http://www.wk-rh.fr/actualites/detail/71878/que-reste-t-il-du-repos-dominical-en-2013-l-imbroglio-autour-du-travail-le-dimanche.html

Terrafemina du 29 novembre 2013: ''Qu'est-ce que la notion de légitime défense?''  http://www.terrafemina.com/societe/societe/articles/33862-braqueur-tue-a-sezanne-quest-ce-que-la-notion-de-legitime-defense-.html 

TV News du 16 novembre 2013 "Le travail dominical": http://www.youtube.com/watch?v=ixE3IqtIUls

Metronews du 7 novembre 2013 "Il y a urgence à légiférer sur la géolocalisation des portables":http://www.metronews.fr/info/geolocalisation-des-portables-il-y-a-urgence-a-reflechir-a-une-loi/mmkf!XBe1c5mEcyITs/

Droit-Inc du 7 octobre 2013: "démarchage de clientèle: oui ou non ?" http://www.droit-inc.fr/article10825-Demarchage-de-clientele-Oui-ou-non

Europe 1 le 30 septembre 2013: "Travail le dimanche: quel impact économique" http://www.europe1.fr/Economie/Travail-le-dimanche-quel-impact-economique-1657923/

Revue Fémina du 3 au 9 juin 2013: "Accords emplois: ça change quoi ?

Revue Management (mars 2013): Article dans la revue "Management" de mars 2013: "Les contrats de génération: ce qui va changer"    

 

 

 

Archives

Le Cabinet En Images

Catégories