les-crises.fr

Ce site n'est pas le site officiel.
C'est un blog automatisé qui réplique les articles automatiquement

[ça se précise] Loi sur le renseignement : les bugs du big data

Thursday 7 May 2015 at 00:24

Dans les serveurs d'une entreprise de stockage de données, à Pantin (Seine-Saint-Denis), en juillet 2014.

Dans les serveurs d’une entreprise de stockage de données, à Pantin (Seine-Saint-Denis), en juillet 2014. (Photo Martin Bureau. AFP)

Contre les attentats de demain, croire que les scénarios de ceux d’hier seront utiles, c’est comme «chercher une aiguille dans une botte de foin alors que la couleur et la forme de l’aiguille ne cessent de changer».

«Les groupes ou les individus engagés dans des opérations terroristes ont des comportements numériques caractéristiques» : c’est ainsi que Bernard Cazeneuve justifie son projet de «boîtes noires» chargées de passer à la moulinette les moindres de nos pérégrinations numériques. L’argument du ministre n’est qu’un vulgaire copié-collé d’un discours élaboré il y a près de quinze ans par l’administration Bush, et largement réfuté depuis. Que cette thèse puisse jouir de la moindre crédibilité à l’Assemblée nationale, qui examine, cette semaine, le projet de loi sur le renseignement, trahit l’ignorance des députés en la matière. Ils devraient pourtant avoir la puce à l’oreille : même le très centriste New York Times leur conseille, dans un éditorial solennel, de ne pas tomber dans les mêmes ornières.

Tout a commencé après le 11-Septembre avec un programme de la Darpa (1) intitulé «Total Information Awareness» – l’ancêtre des dispositifs de surveillance actuels de la NSA. Le présupposé était le même que celui du ministre de l’Intérieur français : on allait passer au crible une immense masse de données à la recherche de «signatures de comportement terroriste». Exemple : si Bill et Ted habitent à la même adresse, louent un camion, se rendent sur un lieu sensible et achètent de l’engrais à base de nitrate d’ammonium (dont on sait qu’il peut servir à faire pousser des patates, mais aussi à confectionner une bombe artisanale), alors, ils se mettent à présenter un motif comportemental suspect, et l’algorithme sonne l’alerte. L’un des soucis, cependant, comme le fit remarquer à l’époque un expert dubitatif lors d’une audition parlementaire, c’est qu’un profil, ainsi défini, aboutirait illico à placer sur une liste des suspects, non seulement de possibles émules de Timothy McVeigh (2), mais aussi la plupart des agriculteurs du Nebraska, qui, eux aussi, assez souvent, habitent une même ferme, achètent de l’engrais et louent des camions.

Bernard Cazeneuve justifie son programme de surveillance de masse par analogie avec le data mining commercial – en faisant mine, au passage, d’oublier que les autorités étatiques sont dotées de pouvoirs autrement plus intrusifs que celui de nous envoyer le genre de publicités ciblées qui peuplent nos boîtes de spam. Sauf que, comme l’expliquait, en 2006, une note du think tank conservateur Cato Institute : «Lorsqu’on recourt au data mining pour repérer des cas d’usurpation d’identité ou de fraude bancaire à la carte de crédit, on se fonde sur des modèles construits à partir de plusieurs milliers d’exemples connus annuellement. Or, le terrorisme ne présente pas d’indices statistiques similaires.» Le phénomène, autrement dit, ne présente pas la fréquence nécessaire pour en extraire un modèle significatif.

Sans compter qu’il y a très peu de chance pour que les attentats de demain présentent les mêmes modes opératoires que ceux d’hier. Alors que les méthodes automatisées de détection préventive procèdent, pour leur traitement du futur, par induction à partir d’un passé connu, le principe de ces actions asymétriques est, au contraire, la surprise, la non-reproduction des scénarios répertoriés. Comme le résume le juriste américain Jeffrey Rosen, c’est comme vouloir «chercher une aiguille dans une botte de foin alors que la couleur et la forme de l’aiguille ne cessent de changer».

VINGT-SEPT MILLIONS DE COMPLOTS POTENTIELS

Même à supposer que le «terrorisme» présente des signatures repérables par data mining – ce qui est pour le moins hasardeux –, pareil système va engendrer pléthore de suspects, dont une écrasante majorité de fausses pistes – et ceci par millions. Le spécialiste en cryptologie Bruce Schneier a fait le calcul : en admettant que «le système ait un taux de faux positifs de 1 sur 100, […] étant donné mille milliards d’indicateurs potentiels à passer au crible – un nombre qui correspond à dix événements (emails, achats, navigation web) par Américain et par jour – et en admettant que 10 de ces événements correspondent effectivement à des préparatifs terroristes, alors, un tel système (sachant qu’il serait, avec les paramètres que nous admettons ici, d’une précision parfaitement irréaliste) n’en générerait pas moins de un milliard de fausses alarmes pour chaque complot terroriste effectivement découvert. Chaque jour de chaque année, la police aurait à mener l’enquête sur 27 millions de complots potentiels afin de découvrir l’unique complot terroriste réel par mois».

De l’aveu même de certains spécialistes américains, la méthode comporte, en outre, des failles évidentes au plan tactique : «Un individu terroriste pourrait s’abstenir d’émettre ou de recevoir des messages électroniques, des appels téléphoniques ou des transactions financières avec d’autres terroristes. Une autre possibilité est qu’un individu s’efforce consciemment de réduire son degré d’homophilie sociale, de sorte à produire du “bruit” dans les relevés électroniques afin d’escamoter l’existence d’un groupe déterminé. […]. Ce problème constitue un obstacle d’importance pour à peu près tout système de surveillance informationnelle.» Or, si de tels systèmes peuvent être mis en échec par des précautions de cet ordre, à la portée de tout groupuscule averti, ceux-ci ne seront alors, contrairement à l’objectif affiché, paradoxalement mobilisables que contre des individus ou des groupes dont les activités, pour être en partie privées ou discrètes, n’en sont pas pour autant activement clandestines.

CONTRÔLE SOCIAL

En juin 2013, le directeur de la NSA assura que les programmes de surveillance des télécommunications avaient permis de déjouer des douzaines de «complots terroristes». En octobre, il révisa son estimation à la baisse, évoquant 13 «événements» en rapport avec le territoire américain, avant d’admettre que le nombre de menaces étouffées dans l’œuf par le programme de collecte des métadonnées téléphoniques se montait à une ou peut-être deux. En fin de compte, ne resta qu’un seul complot à avoir été déjoué par plus de dix ans de collecte massive de fadettes téléphoniques : un habitant de San Diego arrêté pour avoir envoyé 8 500 dollars à un groupe militant somalien.

Contrairement au discours officiel, qui les a légitimés, ces instruments sont de très piètres moyens de «détection antiterroriste». Récemment, dans l’entre-soi d’un think tank de Washington, un ex-directeur de la NSA, Michael Hayden, fit cette confidence : «Je crois que nos dirigeants ont beaucoup trop cherché à justifier les activités de la NSA sur une base étroitement antiterroriste. Une telle justification est tout simplement inadéquate au regard de ce que font les Etats-Unis. Nous avons beaucoup d’autres motivations […] liées à la souveraineté étatique.» Edward Snowden, de son côté, ne dit pas autre chose : «Ces programmes n’ont jamais été conçus en réaction au terrorisme : il s’agit d’espionnage économique, de contrôle social, et de manipulation diplomatique. C’est une question de pouvoir.»

Grégoire Chamayou est l’auteur de «Théorie du drone», la Fabrique, 2013.

(1) Agence pour les projets de recherche avancée de défense (Darpa).

(2) Auteur de l’attentat d’Oklahoma City, le 19 avril 1995, qui a fait 168 morts.

Source : Libération, le 14 avril 2015.

Source: http://www.les-crises.fr/ca-se-precise-loi-sur-le-renseignement-les-bugs-du-big-data/