Retour aux articles

Loi Badinter, voiture autonome, robot, évolution du risque et information au regard de la protection des assurés (2/2)

Tech&droit - Objets connectés
13/10/2017
Les expérimentations sont en en cours depuis quelque temps déjà : sur certaines routes françaises, des véhicules autonomes circulent déjà. Si l'heure n'est pas encore à l'autonomie totale de ces voitures, il est néanmoins temps de réfléchir aux impacts de ces technologies qui feront du conducteur un simple passager. Plus de trente ans après, faut-il modifier la loi Badinter ? Quels impacts sur la notion de dommage et celle de risque dans les contrats d’assurance automobile ? Seconde partie de l'analyse de David Noguéro, professeur à l’Université Paris Descartes Sorbonne Paris Cité (IDS - UMR-INSERM 1145)
(suite de l'article "Loi Badinter, voiture autonome, robot, évolution du risque et information au regard de la protection des assurés", la 1re partie est ICI)

II. Le régime juridique à inventer lié aux véhicules autonomes
Il est suggéré de créer un régime spécial pour la voiture dite autonome, qui pourrait être dotée d’une personnalité juridique propre. Plus largement, c’est le débat relatif aux robots ou choses intelligentes, appartenant à une catégorie supérieure par rapport aux machines de classe inférieure. Il s’agit de machines à capacités cognitives (Coulon C., Du robot en droit de la responsabilité civile : à propos des dommages causés par les choses intelligentes, RCA 2016, étude 6 (références citées)).
 
Une réflexion européenne est engagée sur ce point qui dépasse les seuls accidents de la circulation. Un livre vert sur les aspects juridiques des robots a paru fin 2012. La personnalité électronique est une controverse « tendance ». En janvier 2015, a eu lieu la création d’un groupe de travail sur les questions juridiques relatives au développement de la robotique et de l’intelligence artificielle (IA). Par communiqué de presse du 12 janvier 2017, le Parlement européen s’est exprimé (v. Actualités du droit, entretien avec Delvaux M. : « Le robot doit être au service de l’homme » ; v. également le rapport du Comité économique et social européen, Actualités du droit, 16 juin 2017, entretien avec Muller C. : « Le CESE n’est pas favorable à la création d’une personnalité électronique pour les robots »). C’est la route d’une nouvelle agence européenne pour la robotique et l’intelligence artificielle. Le but est d’aboutir à une expertise technique, éthique et réglementaire. Il est préconisé un code de conduite éthique sur une base « volontaire ». Sont en vue les accidents impliquant des voitures sans conducteur. Il ne faut pas négliger le travail d’adoption du rapport de l’euro-députée Mady Delvaux. Avec des robots au service des hommes, c’est une demande de législation dans un cadre juridique européen, donc des règles harmonisées. La préoccupation est celle du développement dans la sûreté et la sécurité (technique, des boutons d’arrêt d’urgence ou un coupe-circuit). Pour ce qui doit nous retenir, ce serait un système d’assurance obligatoire plus un fonds de garantie (encore !) pour une indemnisation totale des victimes. Susciter la confiance ! À plus long terme, un statut serait créé de « personnes électroniques » pour les robots autonomes les plus sophistiqués - catégorie à identifier (adde Loiseau G. et Bourgeois M., Du droit en robot à un droit des robots, JCP G 2014, 1231 ; Loiseau G., Des robots et des hommes, D. 2015, chron., p. 2369 ; Mendoza-Caminade A., Le droit confronté à l’intelligence artificielle des robots : vers l’émergence de nouveaux concepts juridiques ?, D. 2016, chron., p. 445 ; Daups Th., Le robot, bien ou personne ? Un enjeu de civilisation ?, LPA 11 mai 2017, n° 94, p. 7 ; Bensoussan A. et Loiseau G., Intelligence artificielle : faut-il légiférer ?, D. 2017, p. 581 ; Nevejans N., Traité de droit et d’éthique de la robotique civile, LEH Edition, janv. 2017, préf. Hauser J. et Ganascia J.-G.; adde ouvrage paru depuis notre contribution, Vers de nouvelles humanités ? L’humanisme juridique face aux nouvelles technologies, APD, t. 59,  Dalloz, 2017. Dont Marly P.-G., Les transformations de l’assurance par la robotisation, p. 125 (références citées)).
 
Le 16 février 2017, le Parlement européen a adopté une résolution sur des recommandations faites à la Commission concernant des règles de droit civil sur la robotique (2015/2103 (INL)). En bref, il recommande d’adopter des règles spécifiques en attribuant aux robots la personnalité juridique, des droits et un patrimoine. Face au diagnostic récurrent de vide juridique, on se jette volontiers dans le trou noir de la prolifération normative immédiate… On aboutirait à une personne électronique avec une responsabilité personnelle. Cet anthropomorphisme pour un statut juridique nous paraît excessif. La personnalité juridique a-t-elle encore un sens si l’on y inclut tout, de la Nature aux robots, voire l’animal ? Ce mouvement est à rapprocher de celui du transhumanisme, tenant à « améliorer » l’homme, support biologique transitionnel de la conscience, avant un bond plus conséquent grâce à l’intelligence artificielle (V. le projet Neuralink depuis 2016 d’Elon Musk, interface ordinateur-cerveau, à la suite de la voiture Tesla ou de la fusée SpaceX, pour connecter directement les neurones de l’homme aux machines pour soi-disant ne pas être bientôt dépassé par l’IA qui galope avec la loi de Moore). Une des raisons avancées afin de justifier une telle personnalité serait la difficulté voire l’impossibilité d’établir la responsabilité en présence de robots de plus en plus intelligents (vérifiée ?). La préoccupation essentielle est celle de réparer les dommages que les robots sont susceptibles de causer.
 
Du stade d’outil plus ou moins perfectionné, le robot passerait à celui d’entité autonome capable de prendre des décisions et de les mettre en pratique sans intervention humaine. L’indépendance du robot est exprimée par la progression qui résulte de son apprentissage par lui-même, car il est auto-apprenant sur lui et de l’entourage (le fameux deep learning ou le machine learning).
 
Dans ce contexte, l’intelligence artificielle, qui a reçu des instructions et s’est épanouie, pourrait devenir, juridiquement, le conducteur. De la semi-autonomie de l’un, on basculerait dans l’autonomie totale de l’autre. Afin de tuer dans l’œuf le débat sur la reconnaissance de personnalité, un esprit sûrement trop prosaïque pourrait s’exclamer : à qui appartient le robot, ou qui en a l’intérêt de l’utilisation, ou qui en est le gardien ? Qui l’alimente en énergie ? Ou alors, qui est son constructeur ou à l’origine de la mise en circulation ? Désignez son « père » ou sa « mère », en attendant une version unisexe ou asexuée ? Qu’ils sortent du bois, surtout si leur œuvre est dangereuse ! À eux de supporter le risque, de l’assurer… Sauf à modifier les fondements de nos sociétés, et à repenser le libre arbitre, l’homme est premier et la machine, serait-elle autonome techniquement après avoir reçu des instructions, lui reste soumise - pour nous, cartésien ! L’animal, ce meuble qui est un être sensible, n’a-t-il pas un propriétaire responsable lorsqu’il mord un individu ?
 
Certains peuvent craindre la transgression des lois d’Isaac Asimov écrivain de science-fiction (dans sa nouvelle Runaround (« Cercle vicieux »), 1942. V. encore le film I, Robot, en 2004, de Alex Proyas avec l’acteur Will Smith). En synthèse de ces règles d’éthique (Loi 1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. Loi 2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi. Loi 3. Un robot doit protéger son existence dans la mesure où cette protection n’est en contradiction ni avec la première ni avec la deuxième loi. Proposition de nouveaux principes de roboéthique en remplacement, Nevejans N., Traité de droit et d’éthique de la robotique civile, op. cit.. ; Bensoussan A. et Loiseau G., L’intelligence artificielle à la mode éthique, D. 2017, p. 1371), inspirant des Chartes éthiques en Corée du sud, aux États-Unis ou au Danemark, retenons : un robot ne peut attenter, activement ou passivement, à la sécurité d’un humain et doit obéir aux ordres d’un être humain, sauf en cas de conflit avec le principe précédent. Même à admettre qu’un robot prenne une décision, par contravention à sa programmation, en passant de l’intelligence à la conscience artificielle, avant d’envisager sa déconnexion (hors tension) ou sa destruction, il faudrait gérer les suites déjà réalisées. S’agissant des voitures, on en revient, pour l’essentiel, au débat sur la causalité déjà traité et à la commode imputabilité au propriétaire ou gardien, pour l’heure, quitte à faciliter ensuite les recours de son assureur. Avec la loi Badinter, la victime directe n’a pas d’intérêt majeur à s’adresser directement aux protagonistes autres que le conducteur, propriétaire ou gardien, qui est assuré.
 
III. L’évolution de la notion de dommage et celle de risque dans les contrats d’assurance
Avec les avancées techniques, pourrait-il y avoir une évolution de la notion de dommage et de celle de risque dans les contrats d’assurance ?
 
On imagine mal que la notion de dommage ou de préjudice soit bouleversée dans ses caractères traditionnels bien que les nouvelles technologies puissent aider à mieux les appréhender grâce à la finesse des calculs et comparaisons, au moins pour le chiffrage. En revanche, les occurrences de survenance de dommages pourraient être réduites (même une raréfaction) grâce à la fiabilité de la technologie censée rendre plus sûre la circulation. La sécurité est un des motifs de tests ou expérimentations réalisés pour l’introduction des véhicules à conduite déléguée. Il est vanté un comportement exemplaire sur la route, des réflexes meilleurs et l’absence de consommation d’alcool ou de drogue ! Vive une vie insipide de robot, sans surprise, ni prise de risque inconsidérée…
 
La technique a certes amélioré l’aide aux conducteurs sur les voies grâce à une communication sur l’environnement avec des panneaux dits interactifs (Par exemple, programme SARI, Surveillance Automatisée des Routes pour l’Information des conducteurs et des gestionnaires). Allons plus avant sur l’évolution de l’environnement et, en particulier, de l’urbanisme (CVT Athena, Étude des impacts de la voiture autonome sur le design du grand Paris, Rapport final, mai 2017 (site)). Si, dans un demain lointain, il ne reste sur Terre, voire dans les colonies extraterrestres, que des voies parfaitement dédiées aux véhicules tous automatiques - sans coexistence avec d’autres modèles (source de difficulté sinon) -, avec une infrastructure spécifique, exempte du moindre problème (sauf des recours), la survenance de dommages pourrait ne se poser que de façon marginale, exclusivement à l’intérieur du véhicule, et pas forcément en lien avec celui-ci ! Il faut déjà croire à la perfection. Il faudrait alors repenser celui qui doit être assuré parce qu’à la source du risque.
 
Quant à l’évolution de la notion du risque, elle dépend étroitement de la place résiduelle laissée à l’homme dans ou sur la voiture en fonction des types de véhicules en libre circulation et assurables, ainsi que de l’environnement géographique plus ou moins équipé dans lequel il évolue. Si le contrôle et la maîtrise de l’homme deviennent quasiment dérisoires, a fortiori sans le moindre impact, sa personnalité et ses antécédents ont moins de portée pour la tarification. Il en va de même si la planète (voire l’univers) connaît une généralisation de l’avancée technologique. Le profil de « conducteur » humain deviendrait une donnée négligeable. Les assurés pourraient profiter d’une tarification plus avantageuse.
 
Plus loin, la logique de l’intelligence artificielle, poussée à son zénith, devrait peut-être transformer l’appréhension par l’assurance. Il s’agit de décharger l’homme consommateur de toute tâche ou de tout contrôle pour se fier, en toute confiance, et en toute sécurité, à la machine. Il devient dès lors incohérent de chercher à faire des reproches du côté de l’être humain simple usager. Aura-t-il encore la propriété d’un objet dont le service lui suffira, sur commande, là où il se trouvera pour aller vers un ailleurs, sans la gêne du stationnement ? Des opérateurs mettront leur flotte à disposition de clients, du moins dans les mégalopoles. Le transfert du risque doit s’opérer vers celui qui conçoit, fabrique, commercialise ou autorise ce type de circulation. La notion de garde d’une chose intelligente (la distinction structure ou comportement pourrait-elle ressurgir ?) ou d’une personne électronique (son mode de « vie ») pourrait être un concept renouvelé afin de décider de la désignation de garants et de nouvelles couvertures d’assurance corrélatives, au coût probablement répercuté sur les utilisateurs finaux.
 
À notre sens, il convient toutefois de ne pas négliger un paramètre primordial : l’être humain aime la liberté qui peut le conduire à la transgression (Malgré l’assurance obligatoire, en France, plusieurs centaines de milliers de conducteurs rouleraient sans elle, et même sans permis). Il suffit de songer au sort du fameux porte-monnaie électronique dans ses différentes versions au-delà du développement bienvenu des paiements dématérialisés. Il peut rendre service. Mais, a-t-on supprimé le « cash », et l’envie et les joies de son utilisation, même si certains pays, dont la Suède, veulent progresser dans cette direction anti-fraude et contrôle social (?), en présentant les seuls avantages face aux contraintes du vieux monde décrié ? Serait-ce seulement souhaitable ? Et vraiment sans résistance… Si d’un côté de l’Atlantique, la boîte automatique est assez générale, de l’autre côté, nombre de citoyens/conducteurs demeurent profondément attachés à leur levier de vitesses… N’y voyons toutefois pas un résumé trompeur de la conception de la vie sans caricature. Restons grand public. Nous pouvons évoquer un film de science-fiction de 1993 où le personnage de Sylvester Stallone, dit « Demolition Man » pour ses méthodes expéditives, cryogénisé à titre de sanction dans les années 1990, est réanimé par anticipation en 2032 dans une mégalopole américaine. La police à laquelle il appartient est désormais dépendante des nouvelles technologies dans une société très policée pour ne pas dire aseptisée, qui proscrit toute violence, serait-elle une simple grossièreté. Chaque individu a une puce implantée, avec un code qui permet son repérage et son contrôle, et les véhicules sont automatisés avec les coordonnées bio-anatomiques des conducteurs/passagers. Pour passer aux bonnes vieilles méthodes, le héros se défait du contrôle et prend directement les commandes du véhicule, ce qui cause de nombreux dégâts, même si c’est pour la bonne cause !
 
Servons-nous de cette image pour retrouver l’opposition à la figure toujours parlante de Big Brother de George Orwell en littérature (Nineteen Eighty for, 1949). N’imaginons pas que la technologie alignera sans faille le comportement humain. Malgré tout, la vie est imprévisible. Par comparaison, l’assureur connaît la fraude. Les pirates des temps futurs se manifesteront, d’une façon ou d’une autre !
 
IV. L’information disponible sur les assurés et l’appréhension du risque
(Lors du colloque, ont été envisagées la digitalisation et la sécurisation des données afin de peser l’atteinte possible à la vie privée et la nécessité d’une réglementation stricte de la protection des données).
La question dépasse l’assurance des véhicules qu’elle englobe néanmoins. Dans notre histoire, pendant longtemps, notamment pour les droits et libertés, la quête était celle de la protection des citoyens contre l’arbitraire du pouvoir de l’État. Désormais, souvent grâce à l’État, ou à ses émanations, il s’agit aussi de protéger l’individu contre les entreprises privées. Nul ne doute qu’à différents niveaux, l’assurance utilise des données et puisse se trouver à la limite de l’atteinte à la vie privée, voire la franchisse. Nul ne peut remettre en cause le fait qu’à un certain degré, et dans certaines conditions, de telles incursions proportionnées sont utiles pour tous. La préoccupation est de trouver un équilibre entre, d’un côté, la protection indispensable et, de l’autre, l’accès et l’utilisation de données dites à caractère personnel.
 
L’interrogation est loin d’être nouvelle en assurance. Il suffit d’évoquer, notamment, la sélection du risque qui nécessite un traitement d’information. Par un questionnaire de déclaration du risque, un assureur est susceptible de solliciter un candidat à l’assurance afin qu’il lui livre des informations, dont certaines seront sensibles ou entreront dans la sphère de la vie privée. Pareillement, après un sinistre, une expertise ou une enquête diligentée permet parfois d’obtenir des renseignements du même ordre.
 
La technologie a-t-elle une influence sur l’équilibre recherché ? On songe, par exemple, aux données de masse, accessibles au travers du Big Data (Big Data, Défis et opportunités pour les assureurs (Thourot P. et Ewald F.), Colloque du 26 mars 2013, E.N.A.S.S., I.F.P.A.S.S., Institut des actuaires français, Institut des sciences financières et actuarielles, S.C.O.R., www.enass.fr ; Abiteboul S., Vers une nouvelle science des risques, in Risques, Les cahiers de l’assurance, n° 95, 2013, p. 25 ; Chaput A., Big Data : un phénomène technologique, économique et sociétal, in Risques, Les cahiers de l’assurance, n° 95, 2013, p. 17 ; Peubez G., En quoi le Big Data change-t-il l’évaluation des risques ?, in Risques, Les cahiers de l’assurance, n° 95, 2013, p. 30 ; Marly P.-G., Les transformations de l’assurance par la robotisation, préc.. V. L’incidence sur la réassurance qui est déjà un vaste domaine). Grâce à une mise à disposition massive et au stockage jusque dans les nuages (Cloud), peuvent être réalisées des opérations de collecte et une exploitation. La technologie change-t-elle radicalement la nature du problème ? La digitalisation est en marche dans les entreprises d’assurance, qui a une répercussion sur leur mode de fonctionnement, et dans la relation avec les clients (V. sur la relation de confiance, la riche contribution de Bigot R.. Au-delà des campagnes publicitaires et du démarchage commercial ciblé, et à côté de la détection facilitée de la fraude à l’assurance).
 
Sans aucunement entrer dans le détail, brossons à très grands traits les exigences légales en ce domaine au-delà du droit souple exprimé à l’occasion par des chartes sur l’utilisation des données. Elles étaient déjà fortes avec la CNIL, en France, et la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, modifiée, notamment par la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique, dite loi Lemaire. Elles se maintiennent et progressent avec les dispositions à venir tout prochainement, issues de la législation communautaire réformée qui tient explicitement compte des nouvelles technologies et de leur flux important, notamment des traitements automatisés. Le 27 avril 2016, le Parlement européen a voté le projet General Data Protection Regulation (Règl. UE n° 2016/679, 27 avr. 2016, dit GDPR). Il s’agit du règlement relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE du 24 octobre 1995, dit règlement général sur la protection des données. Il serait fastidieux et vain de vouloir aborder ici ses 99 articles, et les 173 points de sa présentation ! Les spécialistes s’en chargeront. Les États membres devront s’y conformer, en droit dur, à l’horizon proche du 25 mai 2018 (Règl. UE n° 2016/679, 27 avr. 2016, art. 99).
 
Dans l’Union européenne, le règlement est un nouveau dispositif harmonisé pour la protection des données à caractère personnel pour l’ensemble des supports numériques s’agissant du traitement et de la circulation. L’article 4 sur les définitions (26 fournies) donne une idée de la diversité des pratiques prises en compte. Les acteurs  européens ou sur le marché européen devront s’y soumettre dans la foulée, d’où le conseil d’évaluer d’ores et déjà leurs pratiques afin d’anticiper ! Sont concernés les organismes publics ou privés qui traitent, manipulent, gèrent ou stockent des données à caractère personnel des individus, dont les assureurs. Il sera simplement souligné le fait que l’aspect sanction renforcée, voulu dissuasif donc responsabilisant en amont, ne doit pas occulter l’aspect de la culture des comportements qui est prônée, orientée vers la vigilance pour éviter les déviances. La philosophie générale est également importante, qui tend à ramener les données dans le giron des droits fondamentaux de l’individu. L’objectif est d’affermir davantage les droits des personnes physiques. Le bâton est de sortie avec les sanctions (amendes administratives en millions d’euros ou en pourcentage du chiffre annuel mondial de l’entreprise). Toutefois, le but réel est de prévenir plus que de sanctionner. Aussi, à tout moment, ceux qui doivent se plier à ces contraintes doivent être en mesure de démontrer qu’ils respectent bien les principes relatifs aux données personnelles. L’exigence de transparence est portée par le principe fondamental dit de l’accountability, soit le fait de répondre de ses actes. En outre, les entreprises doivent évaluer le degré de risque pour les droits et libertés des individus, spécialement avant le lancement d’un produit. Leur vigilance doit devenir un réflexe, y compris dans leurs rapports avec des sous-traitants. On est encore dans l’anticipation. Si elle n’a pas suffi, il faudra procéder à des notifications dans des délais stricts, spécialement à l’autorité chargée du contrôle (incident de sécurité), à la personne directement concernée par la violation en cas de risque élevé pour ses droits et libertés afin qu’elle prenne des précautions.
 
La prise de conscience des enjeux doit se traduire en actes surtout dans un contexte d’attaques ou de malveillances informatiques (la cybercriminalité). Dans ce but protecteur, les autorités européennes se manifesteront. L’instauration d’un Comité européen de protection des données doit permettre la surveillance et la garantie d’application du règlement (Règl. UE n° 2016/679, 27 avr. 2016, art. 68). La réglementation prévoit la nomination obligatoire d’un délégué à la protection des données pour certains opérateurs (Règl. UE n° 2016/679, 27 avr. 2016, art. 37 s.). Il en va ainsi pour les entreprises dont l’activité principale les conduit à un suivi systématique et à grande échelle des personnes (le profilage). Il en va de même de celles dont l’activité principale est proche de traitements à grande échelle de données sensibles (catégorie de données à caractère personnel). Classiquement, le traitement ne doit pas être détourné de sa finalité. Pour les personnes physiques, bénéficiaires de la protection, des droits sont reconnus, dont certains s’expriment déjà, plus ou moins, en droit positif. Il y a le fameux droit à l’oubli numérique, qui reste difficile à organiser à l’échelle internationale, universelle, et qui a différentes formes (Règl. UE n° 2016/679, 27 avr. 2016, points 65-66 ; art. 17). La durée de conservation des données alimentera certainement des débats et influencera des pratiques.
 
Dans la gestion des données, les assureurs devront évidemment respecter le cadre légal tracé, tout en travaillant la relation de confiance avec leurs assurés. Leur image souffre d’un déficit en ce domaine ; elle est moins bonne que celle des GAFA, géants du Web, à qui les usagers hésitent moins à livrer inconsidérément leurs données ! Attachons-nous aux impacts en terme d’anticipation du risque et de la tarification individualisée.
 
Techniquement, il est admis que le Big Data permet une connaissance plus grande des profils individuels de risque, partant une meilleure segmentation. Grâce aux divers objets connectés - qui vont atteindre plusieurs dizaines de milliards, dans un proche avenir -, c’est une possible explosion des sources de l’information, bien précieux de ce 21e siècle et de l’économie de l’assurance (La concurrence des opérateurs s’exprimera sur ce terrain, avec le forum shopping pour trouver le cadre international le moins contraignant, avec ses suites dont la place éminente sur le marché sur fond d’antisélection, menace pour les moins diligents). L’intelligence artificielle permet une valorisation de ces données, véritables ressources, enjeu d’appropriation (comp., pour l’heure, pas de propriété mais des usages, article 1 de la loi n° 78-17 du 6 janvier 1978 modifié par l’article 54 de la loi n° 2016-1321 du 7 oct. 2016), et marché sur lequel les assureurs doivent se positionner.
 
Le modèle actuel repose encore, principalement, sur une information délivrée par son détenteur. Avec les instruments nouveaux, l’information peut être captée, sans intermédiaire humain, puis exploitée. Techniquement, l’accès aux données peut même se faire, en fait, en dehors d’un réel contrôle. En outre, grâce à des algorithmes prédictifs, il devient possible de rationaliser l’information brute. La technologie peut donc permettre tant la sélection du risque que la surveillance de comportements ou des habitudes, qui peuvent être suggérés, conseillés puis imposés dans une optique, par exemple, de prévention. Elle peut conduire à mieux détecter la fraude, donc à réduire des coûts pour les assureurs, au profit de la communauté des assurés. La technologie peut aussi permettre de délivrer une action sur mesure à un client mieux connu, à son bénéfice, par exemple grâce à une information et un conseil adaptés, ou par le biais d’une offre de produit profilée au meilleur prix. Plutôt qu’une approche axée sur le produit pour des clients, les assureurs seront davantage obligés d’individualiser et de partir du client.
 
Lorsque les acteurs s’intéressent à la question, ils demandent au Droit d’encadrer les modalités d’une utilisation tenue pour acquise dans son principe. Toutefois, rien n’empêche de s’interroger, préalablement, sur la validité même d’une telle pratique au-delà du champ éthique. Il s’agit bien d’un choix de société, indépendamment de la possibilité technique. À ce titre, la philosophie qui consiste à défendre qu’un individu ne s’y est pas opposé, et même y a consenti (une espèce de théorie du contrat du tout permissif), ne peut faire obstacle à un ordre public qui pourrait s’imposer. Par parenthèse, le règlement européen de 2016 encadre les règles du consentement.
 
Plusieurs réflexions peuvent naître. On se bornera à retenir celle qui nous paraît la plus futuriste mais la plus déstabilisante à partir d’une notion classique qui est celle de l’aléa, à la base de l’activité d’assurance et du contrat d’assurance. L’assurance chasse du mieux possible l’aléa qui est, en revanche, indispensable pour l’existence du contrat. L’assurance repose sur le principe de mutualisation des risques. Celui-ci tient compte de lois mathématiques, telles celle des grands nombres ou des probabilités, comme des statistiques, bien connues et maîtrisées par les actuaires. Il demeure que les instruments de prédiction sont des projections relativement fiables, bien qu’imparfaites, pour le groupe des assurés. En revanche, pour chaque assuré, on est plutôt dépendant de l’information récoltée dans la confiance nécessairement faite.
 
Développée, la technique est susceptible de rompre l’asymétrie d’informations, voire de fournir davantage de données que celles à la connaissance du sujet émetteur habituel de l’information. L’information peut être si précise, et exploitée, qu’elle pourrait permettre, avec la prédiction augmentée, une acceptation du risque et une tarification individualisées, si personnalisées que cela pourrait conduire à gêner voire à empêcher l’accès à l’assurance pour certains (comp. Ginon A.-S. , « Assurance santé comportementale » : de quoi parle-t-on ?, RDC juin 2017, p. 321. Grâce aux nouvelles technologies, encouragement et récompense du comportement individuel « responsable » de tel assuré par des recommandations profilées à suivre dans un but de prévention normalisée. Et, à terme, quid de ceux en marge du devoir de comportement ?). Un assureur augmenté, grâce aux nouvelles technologies, spécialement à l’intelligence artificielle, ne pourrait-il pas anticiper sinon tous les risques (leurre du scientisme), du moins leur écrasante majorité, et disposer de moyens assez invasifs de contrôle ? Ce serait une espèce d’ambition de contrôler le futur… Du moins d’anticiper le plus possible pour une adaptation. C’est une crainte exprimée à tort ou à raison. Si l’assureur est actuellement dans un cycle économique inversé, il pourrait sérieusement se rapprocher d’un cycle classique en calculant le coût de ses produits a priori. À terme, si l’on imagine une information entièrement disponible et pleinement exploitable, du moins grandement, ne devrait-on pas s’interroger sur la fin de la mutualisation telle que connue aujourd’hui ? (Insistant sur le glissement vers l’épargne pour l’assuré au bon profil, Marly P.-G., Les transformations de l’assurance par la robotisation, préc.) Et corrélativement, sur la naissance d’une nouvelle forme d’assurance, véritable rupture de paradigme ? Vers quoi pourrions-nous nous diriger ?
 
Si l’on fait une comparaison, même approximative, on peut s’interroger sur la maîtrise des données de santé (Dossier thématique « Intelligence artificielle et santé », JDSAM 2017, n° 17, p. 8 s.). Bien que l’assureur puisse questionner sur la santé de l’assuré (Du moins pour certains produits d’assurance, dont l’assurance emprunteur. Certains contrats interdisent, à l’inverse, la sélection individuelle par la santé de l’individu (cf la loi Evin)), et sélectionner le risque sans encourir le grief de discrimination (Mayaux L., Assurance-fiction, RGDA 2015, éditorial, p. 381), les tests génétiques sont toujours interdits en France (C. assur., art. L. 133-1, renvoyant à CSP, art. L. 1141-1 s.; adde not. Monnet J., Discrimination et assurance, JDSAM 2017-16, p. 13 (références citées) ; Byk Ch., Insurance and genetic tests. Comparing two legislative policies (Australia and France), RGDA 2017, p. 9). Il demeure que des informations sont délivrées, données très personnelles souvent, sensibles même. On sait que la contrepartie est une offre d’assurance pour le plus grand nombre, à un tarif adapté. Si l’obligation d’assurance existe à l’occasion, le droit à l’assurance n’est pas sans nuance ! Il faut néanmoins tenir compte des risques aggravés de santé. Est connue l’instauration du dispositif AERAS, s’assurer et emprunter avec un risque aggravé de santé. En bref, il ne s’agit pas d’assurer tout le monde indifféremment mais, à partir d’une meilleure connaissance des pathologies en général et du profil du risque particulier, d’affiner la sélection de ce dernier pour offrir une couverture assurantielle dans certaines limites. Dernièrement, en assurance emprunteur (not. Fallois (de) M., Assurance et « droit à l’oubli » en matière de santé, RDSS 2017-1, p. 132 ; Gangloff L. et Vorms B., Le droit à l’oubli en matière assurantielle, JDSAM 2017-17, p. 63), le législateur a interdit de prendre en considération des antécédents avec l’instauration du droit à l’oubli pour certains assurés ayant présenté de graves pathologies par le passé (CSP, art. L. 1141-5, créé par art. 190, L. n° 2016-41 du 26 janv. 2016 ; et décrets n° 2017-147 du 7 févr. 2017 (sanctions ; art. R. 1141-1) et n° 2017-173 du 13 févr. 2017 (modalités d’information ; art. D. 1141-2) ; Arrêté du 10 mai 2017 fixant le document relatif à l’information des candidats à l’assurance-emprunteur lorsqu’ils présentent du fait de leur état de santé ou de leur handicap un risque aggravé ; pour négocier la « rétroactivité » du dispositif, recourir au nouveau droit de résiliation ; C. assur., art. L. 113-12-2, mod. art. 10, L. n° 2017-203 du 21 févr. 2017; mod. art. 3, ordonnance n° 2017-1433 du 4 oct. 2017 relative à la dématérialisation des relations contractuelles dans le secteur financier, en vigueur au 1er avr. 2018). Une grille de référence permet de classifier et d’informer les assurés sur leur droit de taire certaines informations sur leur santé, pour bénéficier de l’assurance, sans surprime ni exclusion.
 
Pourquoi cette illustration dans notre problématique ? Il semble que l’on se rapproche d’un effort de solidarité, lato sensu, lorsque la connaissance du risque devient particulièrement aiguë et qu’elle est susceptible d’avoir un impact sur l’assurabilité, son principe ou ses modalités. Cette espèce d’effort de solidarité n’est pas consenti par un organisme public - même si les pouvoirs publics peuvent l’impulser -, à qui l’on pourrait peut-être ouvrir plus facilement l’accès à des données, disponibles au moins dans l’anonymat. Cet effort est le fait d’un secteur et d’opérateurs privés. On voit le paradoxe dans des sociétés où prime l’individualisme, de glisser vers une solidarité collective (V. cpdt d’autres modèles économiques pour échapper, en définitive, à des contraintes de régulation du marché, Mayaux L., Voyage au pays de l’assurance collaborative, RGDA 2017, Editorial, p. 337). L’assurance pourrait devenir une forme d’organisation d’une solidarité dont les contours exacts resteraient à tracer. Malgré une amélioration du partenariat assurés/assureurs, l’entrée dans la communauté et la surveillance et sanction des fraudes resteraient d’actualité. Au besoin avec des financements autres que des primes, devrait être pensé l’accueil des personnes dont le profil s’écarte d’une norme sélective (adde Canguilhem G., Le normal et le pathologique, Quadrige/PUF, coll. « Galien », 6e éd., 1996). Pour cela, la transparence indispensable obligerait probablement à repenser la protection des données à caractère personnel. Il en irait ainsi à moins que l’hétérogénéité des êtres humains, tous uniques, dans leur nature et leurs comportements ne se transforme en une quasi uniformité - horreur ! - rendant les distinctions sans objet, partant vaine la sélection en assurance. Attention, tout de même, aux nouveaux risques qui pourraient apparaître ! L’affaire est à suivre, toujours avec l’optique de la protection juste et équilibrée des assurés !
 
Un zeste de modestie s’impose pour conclure ces propos relatifs à une projection très incertaine. Dès lors que les différentes formes d’art n’ont jamais réussi à anticiper exactement les sociétés du futur, comment les juristes, souvent classés dans le monde des conservateurs, le pourraient-ils avec davantage de succès ? Cependant, avec leur socle de méthode et d’outils conceptuels, en tenant compte des besoins de la pratique, il leur faudra surtout traiter les difficultés naissantes au fur et à mesure, avec sérieux, sans précipitation dictée par la vanité de la mode, mais avec anticipation raisonnable grâce à des éléments tangibles. À moins que l’avenir d’une technologie agissante totalement incontrôlée ou incontrôlable, si elle ne transforme pas les humains en une vulgaire nourriture énergétique pour ses besoins croissants (La trilogie de science-fiction The Matrix, films 1999-2003, de Andy et Lana Wachowski), soit le retour au chaos et à une forme davantage primitive d’organisation sociale (Beauverger Stéphane, Le cycle du Chromozone, 1 Chromozone, 2 Les Noctivores, 3 La Cité nymphale) … Si le monde appartient à ceux qui se lèvent tôt, que penser pour ceux qui ne dorment jamais, en perpétuelle activité, sans contingence biologique ? L’homme a certes du mal à se résoudre à la domination des machines. Et Sapiens pourrait faire appel à son expérience destructrice en cas de concurrence menaçante d’une autre espèce ambitieuse (Harari Y. N., Sapiens. Une brève histoire de l’humanité, Albin Michel, 2015 ; Ou, du même auteur, Homo deus. Une brève histoire de l’avenir, préc., not. p. 61 : sur l’éventuel processus de fusion humain et choses inorganiques, et p. 395 s., la fin du biologique).
 
 
 
 

 
 
Source : Actualités du droit