ARTICLE11
 
 

jeudi 22 janvier 2015

Entretiens

posté à 12h00, par Pierre Alonso
20 commentaires

Big Data is algorithming you

Nouveau champ de domination et de commercialisation du monde, la collecte d’informations numériques via des algorithmes reste largement impensée. Sans doute en raison de la complexité du sujet. Tentative d’éclaircissement, avec Antoinette Rouvroy, chercheuse et spécialiste de la « gouvernementalité algorithmique ».

Cet entretien a été publié dans le numéro 17 d’Article11

*

Je donne, tu donnes, il/elle donne… nos données. Les data sont le nouvel or noir que se disputent gouvernements et géants du numérique. Parfois, les premiers se servent même tout simplement chez les seconds, comme l’a montré l’existence du programme Prism, l’une des nombreuses révélations d’Edward Snowden - l’ancien sous-traitant de la toute-puissance National Security Agency (NSA) américaine. Par une tentative de retournement culotté de la situation, les artisans de la surveillance de masse et de la présomption de culpabilité tentent de se dédouaner en pointant la collecte tentaculaire opérée par Google, Facebook et consorts. Leur argument : vous – population – filez bien plus à des entreprises privées ! Lesquelles répondent que pas du tout… Un cercle sans fin.

Ces enfumages et faux débats empêchent de penser la transformation de nos vies en données, en signaux infrapersonnels qui ne font sens qu’agrégés et moulinés par millions. En naît un pouvoir d’un genre nouveau, la « gouvernementalité algorithmique », explique la chercheuse belge Antoinette Rouvroy1.

JPEG - 701.7 ko
Scène de « Matrix »

*

Au commencement, il y a les données. Qu’est-ce qu’une donnée ?

« On parle aujourd’hui de plus en plus des données brutes, par opposition aux données à caractère personnelle2. Dans le contexte des big data3 ou du data mining4, les données traitées sont elles-mêmes ’’assignifiantes’’ : elles n’identifient pas une personne.

De mon point de vue, elles constituent de nouveaux objets, dans la mesure où elles sont produites par des opérations de décontextualisation, de désindexation, de purification de toute signification personnelle. Elles ne sont pas signifiantes individuellement, mais sont agrégeables avec d’autres données recueillies dans des contextes temporels et géographiques différents. Elles permettent ainsi de créer des profils ou des modèles de comportement qui ne se rapportent à personne en particulier mais désignent des trajectoires possibles.

Les données ne fonctionnent pas comme des signes, les éléments traditionnels de la sémiotique. Pour qu’un signe soit signifiant, il faut qu’il représente la chose qu’il signifie. Par ressemblance (comme les icônes), par convention (comme les signaux routiers) ou par le souvenir d’un rapport physique avec la chose représentée (comme les traces ou empreintes).

Les données brutes ne fonctionnent pas ainsi parce qu’elles ne ressemblent à rien, ne font évidemment pas signe par convention (personne ne décide a priori de la signification à leur accorder) et ne conservent aucun lien matériel avec un geste physique (le doigt qui frappe le clavier, par exemple). Ce sont donc bien de nouveaux objets, qui se rapprochent plus du signal que du signe. Je m’en rapporte ici à la définition d’Umberto Eco : un signal est ce qui est calculable, malgré l’absence de signification. »

C’est donc un potentiel ?

« Comme ces données ne sont pas signifiantes, qu’elles ne conservent aucun lien direct avec les individus, qu’elles sont souvent anonymisées, décontextualisées, elles paraissent triviales, peu menaçantes, y compris pour la vie privée des individus. Mais elles vont servir à produire une forme de modélisation du social et du comportement qui aura des effets très concrets de gouvernement sur les conduites possibles. »

Lors d’une intervention récente, vous avez défini la donnée brute comme « texture même du capitalisme »...

« Dans Mille Plateaux, Capitalisme et Schizophrénie, Gilles Deleuze et Félix Guattari définissent le capitalisme comme la libération des flux dans des champs déterritorialisés. Cette libération nécessite des opérations de dé-codage. Les signes qui ont de la signification pour nous en ont grâce aux codages propres à la société dans laquelle nous vivons. Les codes d’intelligibilité nous permettent de les comprendre.

Ici, il y a un dé-codage. C’est-à-dire une sorte d’abstraction sur fond de complète décontextualisation qui supprime des possibilités d’intelligibilité dans l’esprit humain. Le capitalisme fonctionne de cette manière, en extrayant notamment de leur contexte de vie les moyens de production. »

JPEG - 50.6 ko
Œuvre de Leandro Castelao

En quoi consiste le phénomène de big data ? C’est une simple juxtaposition de données brutes ou une agrégation intelligente (grâce aux algorithmes) des données brutes ?

« Il s’agit d’abord d’un phénomène de perte de contrôle. Il y a big data lorsque des seuils de quantité, de complexité (les données sont recueillies dans des contextes très différents) et de rapidité (elles prolifèrent en temps réel) sont atteints, de telle sorte que ces masses de données ne peuvent plus être gérées par les techniques traditionnelles de banques de données. L’existence des big data constitue donc une sorte d’aveu de faiblesse, lequel renvoie en creux à notre incapacité à administrer ces masses de données autrement qu’en sous-traitant leur gestion à des algorithmes, dont on connaît de moins en moins le fonctionnement.

Les big data offrent de nouvelles manières de rendre le monde signifiant – Michel Foucault parlerait d’un nouveau ’’régime de vérité’’ – sur la base de la pure induction (et non de la causalité), en temps réel, dans des modèles qui s’affinent en permanence… C’est vraiment un changement de paradigme dans le mode de production de ce qu’on considère comme le réel. Les possibilités ouvertes sont gigantesques dans tous les domaines : le marketing, la connaissance des consommateurs, l’astronomie, l’histoire, l’archivage…

Dans le même temps, les big data transforment de nombreuses disciplines, pas toujours pour le pire. Elles permettent de prendre en compte des masses de données qu’on devait ignorer auparavant. Donnent l’impression d’avoir un accès plus exhaustif à la réalité. Satisfont le mythe d’un accès immédiat et total à celle-ci sans passer par quelque représentation que ce soit. Un rêve d’immanence qu’on a l’impression de voir se réaliser. »

L’utilisation des big data n’est-elle pas le prolongement technique et logique de la statistique ?

« Les finalités de la statistique traditionnelles sont très différentes des opérations statistiques du data mining ou des big data. La statistique consiste à objectiver des hypothèses faites a priori : elle est un moyen de preuve. Le data mining au contraire fait surgir des hypothèses du réel numérisé lui-même !

Les techniques aussi sont différentes. La statistique ne tient pas compte des points les plus éloignés pour calculer une moyenne, car ils sont perturbateurs, générateurs de bruit. Les capacités de calcul sont limitées. Avec le data mining, il est possible, grâce aux puissances de calcul, de tenir compte de tout, y compris des points les plus éloignés. La notion même de normal, de normalité, de moyenne disparaît. »

Ce qui donne l’illusion d’une retranscription totale du réel, voire d’un dédoublement du réel ?

« Le réel numérisé peut en effet sembler être le réel lui-même. Comme il n’y a plus de sélection de données par des acteurs humains, donc faillibles, on a l’impression d’une très grand objectivité. La totalité des données étant actualisée en temps réel, le monde numérisé paraît reproduction exacte du monde. La notion de médiation, de représentation en fait les frais, comme pour consacrer le mythe de l’accès immédiat au réel tel qu’il est. »

Il y a un risque de confondre le réel avec le réel numérisé ?

« Oui, parce que ce processus présente des aspects extrêmement performatifs. Ce qui n’est pas numérisé ou numérisable, que ce soit la détresse humaine ou des circonstances particulières, ce qui ne rentre pas dans les cases, n’a plus voix au chapitre. Cette évolution, qui paraît très objective, est en fait profondément injuste : on sait très bien que la totalité du réel n’est pas mise en nombres.

Cette impression de repli de la réalité à l’intérieur de la réalité numérisée, cette totalisation – c’est presque un régime totalitaire numérique –, risque de faire disparaître la distinction entre le monde et sa représentation, et donc la possibilité même de la critique. On peut critiquer la représentation, comme on critiquait les anciens objets statistiques, qui n’étaient pas assez représentatifs ou mal construits. Tandis que le réel numérisé va à rebours de l’idée que le savoir est toujours construit, et donc critiquable en fonction des conditions de sa construction. Si ce n’est plus construit, ce n’est plus critiquable. C’est un enjeu fondamental. »

Comment critiquer efficacement les effets de pouvoir engendrés ?

« La critique est d’autant plus difficile que le pouvoir n’apparaît pas comme tyrannique. Pour fonctionner, ce mode d’exercice du pouvoir a besoin que nous nous sentions le plus libre possible de nous exprimer, que nous donnions un maximum de données. Il ne nous contraint pas dans notre expression. Au contraire ! Dès que vous êtes connecté sur Facebook, un champ vous propose de vous exprimer ! C’est exactement l’inverse du monde orwellien dans lequel la liberté d’expression était l’ennemi du pouvoir. Nous sommes en quelque sorte gouvernés par notre liberté, ce qui rend la critique extrêmement difficile. »

Et nous sommes consentants...

« Il faudrait plutôt parler d’un effet d’adhésion. Nos profils sont si multiples, adaptables et adaptés en temps réel que ne pas vouloir être profilé, c’est ne pas se vouloir soi-même. Dans ce mode de gouvernement, l’autorité n’est plus assumée par personne, sinon par nous-mêmes, par les trajectoires qui nous sont assignées à titre d’un destin identitaire conduisant à une clôture de l’individu sur lui-même. Ce qui correspond, dans un certain sens, à l’idéal des années 1960 - ne pas être gouverné par autre chose que nous-mêmes. »

La multiplicité presque infini des profils créés permet de résoudre ce que vous appelez « l’oxymore de la personnalisation industrielle »...

« C’est paradoxal : la personnalisation très fine ne s’accompagne d’aucune rencontre entre des individus qui n’ont plus à exprimer leur propre désir. Le président de Google a ainsi expliqué qu’il deviendra bientôt très difficile pour les individus de vouloir quelque chose qui n’a pas été prévu pour eux par sa firme. Dans ce cadre disparaissent l’expression, le façonnement de nos propres désirs, ainsi que notre manière de les exprimer à autrui.

Nous nous exprimons ou rencontrons quelqu’un parce que nous ressentons une sorte de manque, d’insatisfaction. Si tout est prévu par une providence numérique, nous n’avons plus besoin de cet espace public pour exprimer nos envies, nos désirs. La sphère individuelle est gavée, volontairement ou non, de manière à éviter le commun. »

Personne ne détient ce pouvoir ? Même pas les créateurs d’algorithme ? Ou ceux qui les possèdent, comme Google ?

« C’est très dilué. Ceux qui façonnent les algorithmes ne sont pas détenteurs du pouvoir, car ils n’exploitent pas les données eux-mêmes. D’autant plus qu’ils sous-traitent leur boulot aux algorithmes (le ’’machine learning’’), lesquels sont auto-apprenants.

Par contre, ceux qui sont autorisés (ou qui s’autorisent) à exploiter ces données à des fins de prédation détiennent un pouvoir important. Ils visent par exemple le temps d’attention des utilisateurs d’Internet et ciblent leur espace de vie avec la publicité individualisée. Grâce à l’Internet des objets, des publicités pourront s’afficher dans nos espaces privés, sur nos frigos ou sur d’autres objets domestiques. Les industriels et les commerciaux tirent ainsi les marrons du feu. De même que les États surveillants, comme les États-Unis avec la NSA. »

JPEG - 55.9 ko

La cible de ce nouveau pouvoir paraît davantage être le futur que le présent...

« Il se concentre sur l’incertitude radicale liée au fait que nous sommes des individus qui nous pensons libres, avec une possibilité de ne pas forcément faire tout ce dont nous sommes capables. Alors que les algorithmes appliqués à la sécurité considèrent que l’individu susceptible de commettre un acte terroriste est déjà un terroriste, comme s’il avait commis l’acte dont il est physiquement capable.

Spinoza expliquait que notre puissance vient de notre capacité à ne pas faire tout ce dont nous sommes capables. Cette possibilité de retenue est essentielle. Même si nous ne sommes pas des êtres absolument libres, rationnels, autonomes, il existe une sorte de marge. Et c’est précisément cette dernière qui est la cible de la gouvernementalité algorithmique. Il s’agit en somme de l’excès du possible sur le probable. »

En quoi ce gouvernement du futur se distingue-t-il de la prévention, qui consiste à empêcher la réalisation d’actes jugés illégaux ou immoraux ?

« La prévention passe par l’identification des causes, puis par une intervention pour que le comportement ne se produise pas. Ici, il n’est plus du tout question de prévention : les causes sont devenues totalement indifférentes. La production de ce mode de ’’savoir’’ est purement inductive. Je parlerais de préemption : il faut empêcher (ou faire advenir) certains comportements, sans se soucier des causes. En laissant de côté ces dernières, on se prive de la possibilité de prévenir. »

Est-ce le prolongement de ce que Foucault décrit à propos de l’intériorisation de la contrainte ?

« Non, c’est complètement nouveau ! Dans les dispositions algorithmiques, le sujet n’existe pas. L’effet de ces dispositions est précisément de rendre impossible les opérations de subjectivation. La norme n’est plus connue par personne, elle n’est plus visible, elle évolue en temps réel. Elle est complètement plastique, s’adapte à tout ce qui se passe. Ce système ne connaît que les données infrapersonnelles, les données brutes donc, agrégées au niveau supra-individuel.

L’objectif est très différent de la discipline foucaldienne, qui visait la réforme des comportements, soit une sorte de moralisation. Ici, le caractère moral est complètement absent. Cela fait apparaître la gouvernementalité algorithmique comme neutre, objective et non-gouvernante. La cible n’est pas la réforme des individus, mais celle des comportements - peu importe par qui ils sont portés.

Lire Foucault permet surtout de comprendre ce qui a glissé depuis ses analyses. Au lieu de la production de corps dociles par les normes, on en vient à la production de normes dociles par les corps. La normativité s’adapte à tous les mouvements. »

Dans quelle mesure la gouvernementalité algorithmique comporte-t-elle des failles ? Vous disiez un peu plus tôt que refuser d’être profilé, c’est se refuser soi-même...

« Tout événement est disséqué, éparpillé en une multitude de données elles-mêmes réagrégées. Mais il en reste. L’affaire Prism a par exemple fait bouger certaines lignes. Pas assez, évidemment, mais elle a quand même constitué une sorte d’électrochoc.

Alain Badiou explique que si on reconnaît un fait comme événement, si on décide que c’est un point de rupture, un point de refus, on peut en tirer les conséquences. Ce qui suppose une décision à l’origine et se traduit ensuite par des décisions concrètes. À cet égard, l’affaire Prism est un non-événement, malgré les possibilités portées par la situation. Elle a certes permis une certaine prise de conscience de ce dans quoi on s’embarque. Mais elle n’a pas débouché sur une forme de ’’débarquement’’. »

En quoi le mouvement d’ouverture des données publiques (open data) peut-il constituer un contre-pouvoir ?

« C’est tout à fait insuffisant. Les individus n’ont aucune possibilité de traiter ces données d’une manière qui fasse sens pour eux. Ce mouvement ne change rien aux déséquilibres de pouvoir et de moyens. C’est davantage un cache-sexe, qui rajoute une couche au discours dominant faisant l’apologie des données et expliquant que l’avenir est dans leur traitement. »

Les données protégées par les institutions de type CNIL et les gouvernements sont celles à caractère personnelle. Mais si on prend l’exemple de la la NSA, on se rend compte qu’elle se nourrit de métadonnées5...

« Le droit est complètement à côté de la plaque ! Il faut bien sûr continuer à protéger les données à caractère personnel. Mais on rate un large pan de la problématique actuelle si on en reste là. C’est-à-dire qu’on fait alors l’impasse sur tout ce qui a trait au profilage, à la personnalisation, à l’hypertrophie de la sphère privée, à la paupérisation de l’espace public et à la prédation par des sociétés privées des espaces eux-mêmes privés des internautes.

Cet acharnement à camper sur la protection des données à caractère personnel est curieux, voire suspect. Une cécité pareille ne peut être que volontaire. L’objectif serait-il raté à dessein ?

Quoi qu’il en soit, ce processus est éminemment révélateur. Nous sommes tellement imprégnés d’une culture individualiste que nous sommes incapables de voir ce qui se joue au-delà de la question des données à caractère personnel. Cet aveuglement va de pair avec un mépris pour le commun, pour l’espace public et pour le débat public. »

JPEG - 147.7 ko
Affiche de Roman Cieslewicz

*

En rapport sur A11 :
Alexandre Laumonier : « Après la crise de 2007, il fallait trouver une nouvelle vache à lait »
« À jouer la guéguerre des machines, nous serons toujours perdants »



1 Qui oeuvre au sein du Centre de recherche en information, droit et société de l’Université de Namur.

2 Une donnée personnelle comporte des informations renvoyant à l’identité d’une personne, que ce soit directement (son nom) ou indirectement (son numéro de téléphone, son adresse IP, son empreinte ADN, etc.).

3 Le terme big data désigne des ensembles de données très volumineux.

4 Le data mining consiste à passer à la moulinette des données, souvent en très grand nombre, pour en extraire du sens. Les moulinettes sont aussi appelées algorithmes.

5 Les métadonnées sont l’ensemble des informations qui entourent les données elles-mêmes. Par exemple, pour un e-mail, il s’agit des adresses IP de l’émetteur et du récepteur, de leurs adresses tout court, de l’objet du message et de sa date d’envoi.


COMMENTAIRES

 


  • jeudi 22 janvier 2015 à 13h25, par Mais ou est la guerre ?

    Mais tout ca marche à l’électricité !
    Vlà un truc qu’on sait ce que c’est.
    Les chinois investissent dans les pigeons voyageurs à ce qui paraît..
    Zont pas peur d’une armée d’moulinettes !

    • jeudi 12 mars 2015 à 12h46, par Antoinette Rouvroy

      Il y a quelques années, Alain Desrosières (avec qui j’ai eu la grande chance de pouvoir discuter de vive voix et par correspondance de la spécificité des pratiques statistiques impliquées dans le traitement des Big Data par rapport aux pratiques statistiques plus « classiques »), m’écrivit ceci : « “De même que Lénine disait : Le communisme, c’est les soviets plus l’électricité, on pourrait dire que : La gouvernementalité algorithmique, c’est le behaviourisme plus les ordinateurs. » Alors oui, les ordinateurs, ça marche à l’électricité. Et alors ? Je pense qu’il est possible de se servir des ordinateurs pour leur faire faire autre chose. Plutôt que de couper le courant, il me semble plus efficace, sur un plan stratégique, de limiter l’emprise de la pensée »behaviouriste« , qui n’est rien d’autre qu’une tyrannie du »réel« , un positivisme enfermant, une passion aveuglante pour les »faits« , pour l’ »objectivité« numérique, comme si celle-ci était l’incarnation d’une »vérité« et d’une »justice" immanente. Il s’agit surtout de rappeler, avec force, que « le fait n’a point par lui-même de valeur. Et même, du moment qu’il existe comme fait, c’est qu’il porte avec lui ses conditions. Les conditions, qui les connaît les change. Aussi le fait traduit-il non pas ce qu’on fait mais ce qu’on ne fait pas. » (Georges Canguilhem, « La mobilisation des intellectuels : protestations d’étudiants », Libres propos, 20 avril 1927, p.54.). C’est sur ce terrain-là : le terrain de la sémiotique, de l’épistémologie, mais aussi de l’idéologie qu’il faut être récalcitrants.



  • jeudi 22 janvier 2015 à 20h43, par damien

    Ardu (comme texte), mais flippant (comme situation).



  • jeudi 22 janvier 2015 à 21h27, par B

    http://blogs.mediapart.fr/blog/anto...

    qu’on se pende ici qu’on se pende ailleurs



  • jeudi 22 janvier 2015 à 22h45, par poueeet

    Ce qui est amusant, c’est de voir cette technocaste se réjouir du bigdata, du tout-connecté, du tout modélisable et de déplorer en face un désenchantement et une désillusion des individus dans ce monde où tout devient explicable, prévisible, millimétré.

    Je m’exploite, tu m’exploites, il m’exploite... les données.



  • jeudi 22 janvier 2015 à 23h50, par many

    Dieu est mort, vive l’ e-Dieu



  • vendredi 23 janvier 2015 à 11h37, par conseiller pôle emploi

    Offre 1 sur 4

    Numéro de l’offre 0623159

    Métier du ROME E1102 - Ecriture d’ouvrages, de livres

    APÔTRE (H/F)
    A cheval sur les différents plans de la réalité, vous avez pour missions :
     × Recueillir toutes les données possibles
     × Nettoyer, vider, désosser ou désarêter les données recueillies
     × Extraire la substantifique moëlle
     × Résumer et stocker sous forme d’hymne, de psaume, de louange, de proverbe à la gloire du Royaume enfin réalisé
     × Annoncer la Nouvelle Bonne Nouvelle
     × Se tenir prêt à toutes les persécutions

    Lieu de travail : INTERNET
    Débutant accepté.



  • vendredi 23 janvier 2015 à 12h40, par r0d

    Bonjour,

    je travaille dans le domaine du data mining, en tant que ’lead developper’ (programmeur avec des responsabilités techniques, par opposition à ’chef de projet’, qui a des responsabilités de gestion). Je n’ai pas le recul, ni les connaissances philosophiques pour espérer comprendre cet article de façon exhaustive, j’avoue cependant qu’il est très riche, et j’apprécie particulièrement le recours à Spinoza dans cette problématique. Cela dit, je tenais à apporter quelques précisions, de mon point de vue de « travailleur salarié du data mining ».

    Tout d’abord, vous dites que « les données traitées sont elles-mêmes assignifiantes ». Je ne suis pas du tout d’accord avec cette assertion. Il se trouve que dans mon domaine nos données sont signifiantes. Je travaille dans le domaine de détection de la fraude. Je ne peux pas rentrer dans les détails, mais grosso-modo, j’ai à ma disposition une quantité astronomique de données financières sur les entreprises européennes, et mon travail consiste à programmer des algorithmes qui essaient de trouver automatiquement des anomalies. Lorsqu’une anomalie est détectée, nos logiciels génèrent un rapport dans lequel apparaissent clairement les noms des personnes physiques concernées, ainsi que toutes les données relatives à l’anomalie. Toutes ces données on un sens, et elles en ont un même pour les algorithmes qui les traitent (nous disons que les données sont « typées »). Par exemple, le chiffre correspondant au capital d’une entreprise n’est pas traité de la même façon que son résultat net.

    Il y a d’autres exemples qui tendent à confirmer le fait que ces données ont du sens. Par exemple, le cas des cartes de fidélités dans les supermarchés (c’est un cas d’école dans la profession). Les supermarchés utilisent ces cartes de fidélité pour agréger des données sur leurs clients. Cela va des données personnelles (age, adresse, etc.), aux données que j’appelle « comportementales » (heures et jours auxquels on va faire notre courses, type de produits achetés, etc.). Et bien ces données ont bel et bien une signification. Lorsque les « consultants buiseness » de ces grandes entreprises étudient les rapports produits par les logiciels de data mining, ils voient bien que Mr Untel, tel age, telle profession, a tel type de comportement.

    Je pense donc que cet objet (les données) n’est pas un nouvel objet, du moins ontologiquement. Sa forme est nouvelle, pas sa nature. Dans l’Égypte des pharaons, les scribes géraient des sortes de cadastres. Il s’agit déjà, ontologiquement, de data mining.

    « Le président de Google a ainsi expliqué qu’il deviendra bientôt très difficile pour les individus de vouloir quelque chose qui n’a pas été prévu pour eux par sa firme. »

    Voilà, selon moi, le plus gros risque du data mining. J’aime bien le présenter ainsi (la phrase n’est pas de moi) : le risque n’est pas que les machines deviennent humaines, mais que les humains deviennent des machines. Je m’explique :

    En fait, nous sommes au début d’une révolution dans notre rapport avec nos représentations. Les évolutions de l’intelligence artificielle vont tout chambouler, je peux vous l’assurer. Déjà, avec le « machine learning », nous créons des algorithmes qui apprennent par eux-même. Nous ne savons pas où ça va nous mener. Que se passera-t-il, par exemple, lorsque ces algorithmes appliqueront des connaissances qu’ils ont acquis par eux-même, mais qui nous sont inaccessible à nous, les humains ? Une autre aspect de ce point : la curiosité artificielle (artificial curiosity). C’est quelque chose que nous utilisons de plus en plus pour détecter des anomalies, mais surtout des corrélations dans les données. Cela consiste à faire en sorte que l’algorithme ne se contente pas de chercher ce qu’on lui demande de chercher, mais qu’il tente, par lui-même, d’explorer des voies aléatoirement. En gros, il s’agit d’algorithmes qui créent eux-même, aléatoirement, d’autres algorithmes, qui en analysent eux-même les résultats, et prennent en compte ces résultats pour créer de nouveaux algorithmes.

    Entre le « machine learning » et le « artifical curiosity », voilà deux choses que nous ne devons pas laisser aux machines car ce sont deux choses qui font de nous des êtres humains. Nous sommes curieux et nous apprenons. Lorsque nous laissons Google être curieux à notre place et Wikipédia apprendre à notre place, nous cessons d’être des humains. C’est à mon avis ici que se cache le plus grand danger.

    « Il y a un risque de confondre le réel avec le réel numérisé ? »

    Oui, mais ce problème n’est pas nouveau. Les données, qu’elles soient « big » ou non, sont une représentation. Pareil pour tous les arts, pour les modèles scientifiques, ainsi du suite. Jusqu’à notre perception (ce que nous transmettent nos sens). Donc à ce niveau là, je crois que nous sommes en face d’une problème inhérent à l’être humain, celui de la représentation, de comment on la construit et comment on l’utilise.

    Et c’est, je crois, un point bon d’entrée au problème, un bon « outil de vulgarisation ». Les algorithmes de data mining génèrent des représentations (en utilisant, entre autres, des modèles). Le problème est de savoir « comment doit-on construire ces modèles », mais surtout, « qu’est-ce qu’on en fait ». Le problème c’est qu’il y a des millions de personnes qui travaillent sur ces algorithmes. La chaîne est longue, et beaucoup d’entreprises et d’institutions sont dans la compétition. Il y a ceux qui fournissent les données (souvent nous-même en tant que consommateur ou simple citoyen), ceux qui récoltent les données, ceux qui les trient, ceux qui les formatent, ceux qui les traitent. Parallèlement, il y a ceux qui théorisent les algorithmes, ceux qui les implémentent, ceux qui les testent et les améliorent, ceux qui les utilisent, ceux qui les achètent et qui décident comment ils vont être utilisés, etc, etc. Le nombre de personnes impliqués dans cette histoire est tellement important que les responsabilités sont totalement diluées, et en réalité, il s’agit maintenant d’une question politique.

    • samedi 24 janvier 2015 à 12h58, par Zip

      Vous êtes un monstre cher monsieur. Que le profilage ne vous pose aucun problème éthique fait de vous un monstre.

      • samedi 24 janvier 2015 à 16h32, par un-e anonyme

        Et ben ? Un peu de mesure :-)) Ce monsieur explique son boulot et l’analyse qu’il en fait n’est pas dénuée d’intérêt, il exprime la crainte que le patron de « gogole pour tous-tous gogole » ait raison. Cela conforte clairement la phrase : « la collecte d’informations numériques via des algorithmes reste largement impensée » sous le titre de l’article il me semble.
        x
        M’enfin…un data center, ça peut sauter héhé…
        Isatis

      • lundi 26 janvier 2015 à 12h46, par r0d

        Monsieur,

        comme je l’ai précisé, mon travail consiste à détecter la fraude des entreprises. En particulier les fraudes fiscales des grandes entreprises et les cas de corruption.

        Alors certes j’utilise des outils (data mining) qui peuvent être utilisé à mauvais escient, et c’est d’ailleurs le propos de mon précédent message. Mais pour ma part, aider l’OLAF (bureau anti fraude européen) à mettre des salopards en prison ne va pas à l’encontre de mon éthique. Si cela fait de moi un monstre pour vous, alors vous en êtes un pour moi. Car les salopards en question ne doivent pas, selon moi, continuer à agir en toute impunité, car ils sont, selon moi, des vampires pour les citoyens honnêtes.

    • lundi 26 janvier 2015 à 22h41, par Severo

      Je trouve cela assez passionnant et je suis en train d’écrire une fiction qui au départ traite d’immédiateté" mais qui, de fil en aiguille m’a amené à fouiner le monde de l’algorithme. Je reste béotien, mais j’avoue que j’aurai bien poursuivi la conversation avec vous pour en savoir plus. Cela vous parait envisageable ?

      • mardi 27 janvier 2015 à 11h10, par r0d

        Bonjour Severo,

        la mise en page de cette discussion n’est pas claire pour moi, je ne sais donc pas très bien à qui s’adresse votre question.
        Si c’est à moi, alors c’est très volontiers. Ce sujet me passionne, et je suis toujours enthousiaste à l’idée d’en discuter.

      • mardi 27 janvier 2015 à 16h48, par un-e anonyme

        Bonjour,

        Je suis ravie pour ma part que des auteurs de fiction et que les artistes en général se saisissent de ce « sujet ». Il est difficile de rendre compte de façon linéaire, par le langage, d’un phénomène qui consiste essentiellement à (se)dispenser de (se)rendre compte, de ce qui nous arrive. Je pense que les artistes ont un rôle crucial à jouer car, précisément, la fiction permet de prendre du recul, et de faire en sorte que l’actualité n’adhère pas complétement à elle-même, de produire de l’écart - écart essentiel à la critique - dans un monde qui souffre d’une indistinction croissante entre les signaux et les choses, entre les sujets et les normes, etc. Je serai donc ravie de parler avec vous si vous voulez.

        Antoinette Rouvroy

    • mardi 27 janvier 2015 à 23h51, par Antoinette Rouvroy

      Un tout grand merci pour ce commentaire fourni. Il faut que je vous réponde, vraiment, car voilà l’amorce d’une discussion intéressante. Malheureusement je suis à cours de temps cette semaine-ci, et c’est très frustrant. Certaines choses auraient dû être d’avantage développées, d’autres auraient pu être nuancées, mais le texte eut sans doute été beaucoup trop long. Ces questions de l’a-signifiance, de la représentation, de l’autonomisation des systèmes, sont au coeur de ce qui m’intéresse. Je les aborde de façon un peu plus nuancée et moins fragmentaire dans mes travaux plus académiques (que vous trouverez notamment ici : https://frs-fnrs.academia.edu/Antoi...). Je vous répond plus longuement dans le courant de la semaine prochaine. Merci encore.

      • jeudi 29 janvier 2015 à 18h11, par B

        OK
        de toute façon depuis que les américains ont dit que les européens avaient une mauvaise gouvernance, ils ne savent plus quoi inventer.

        bon de mon côté, je veux bien essayer de lire votre article sur Article11.
        Je crois qu’il va me falloir une bonne frite au picallili.



  • samedi 24 janvier 2015 à 21h37, par Elno

    Chouette mets tes baskets ! On va pouvoir se lancer dans la nouvelle mode ( initiée il y a vingt ans par ce qui allait devenir le négrisme) : la sub-version par le hacking attack ! De quoi créer de nouvelles identités sub-versives ! Tout le pouvoir aux technos !
    Mais la technique moins l’électricité...



  • jeudi 29 janvier 2015 à 14h58, par Bertrand

    Merci pour cet article ! Juste une précision sur Michel Foucault. Dans ce domaine, je crois qu’il est toujours bon de revenir à l’article de Deleuze sur les société de contrôle qui continue le théorie disciplinaire Foucaldienne (écrit bien avant la démocratisation d’Internet en 1990) :

    https://infokiosques.net/imprimersa...

    En substance, l’article dit qu’il faut refondre de nouveaux contre-pouvoir, adaptés à la situation d’aujourd’hui, comme on pu l’être les syndicat à leur époque.



  • mardi 17 février 2015 à 10h33, par Nickolas

    The good news is that you don’t need to try to work out everything on your own. Jelqing can also be very good for the prostate as it uses an exercise in the routine known as Kegels which involve flexing of the prostate. Introduction : It is true that the productivity of employees is something which can have a great impact on the wealth of a firm or industry. Here is my page ... Male Enhancement

  • Répondre à cet article