Big bang data, pouvoirs locaux et gouvernance des données en Europe
ATELIER | jeudi 07 décembre, 2017 | 09:30 - 11:00

ATELIER > Big bang data, pouvoirs locaux et gouvernance des données en Europe


Récit de l’atelier « BIG BANG DATA, POUVOIRS LOCAUX ET GOUVERNANCE DES DONNÉES EN EUROPE » organisé par le CNFPT


Tremblement de terre dans le monde numérique territorial : d’ici octobre 2018, les collectivités devront ouvrir les données numériques qu’elles produisent et collectent toute l’année. Contrainte ou opportunité ? Comment ? Avec quelles conséquences ? Attention, le big data ouvre bientôt les portes de vos collectivités.

Tremblement de terre annoncé

Qu’est-ce qui va changer en octobre 2018 pour les collectivités ?

  • L’obligation de créer un poste délégué à la protection des données (poste jusqu’alors facultatif). Il faudra donc recruter et former car le profil idéal pour ce poste n’existe pas encore : il devra avoir une vision transversale sur tous les métiers de la collectivité, être sensibilisé à la culture de la donnée, un peu technique mais pas trop, sensible aux questions juridiques mais pas spécialistes. Si les profils actuels constatés dans les collectivités pionnières en open data sont variés (communication, DSI, etc.), peut-être aurions-nous à apprendre des bibliothécaires ou des archivistes qui font de l’open data du passé ?

  • L’obligation d’open data. Cette obligation s’applique aussi aux algorithmes publics de décision qui doivent être ouverts et transparents, contrairement à ceux du privé qui font valoir le secret commercial.

De quoi parle-t-on exactement ?

À l’heure des villes connectées, de la géolocalisation et de la vente en ligne, les données collectées explosent les compteurs. En 2020, le volume des données produites en une journée pour la gestion des villes européennes sera quatre fois supérieur à celui des données produites pour toute l’année 2015. On en est là !

BIG QUOI ?

Big data, parce que c’est devenu tellement volumineux que le cerveau humain n’est plus capable de les utiliser seul. Mais pour parler de big data, le volume ne suffit pas, il faut que trois notions soient réunies, c’est la règle des 3V : le volume des données + la variété des données + la vélocité des données qui sont mises à jour régulièrement.

Pour traiter toutes ces données, on utilise des algorithmes qui sont une suite d’opérations et d’instructions permettant de résoudre un problème. Ce n’est pas nouveau, l’homme l’utilise depuis des siècles. Mais les algorithmes d’aujourd’hui tournent avec des puissances de calcul et des volumes de données inédites, à des vitesses inédites, pour des résultats inédits. Au point qu’à force de creuser les calculs dans tous les sens, les algorithmes donnent des résultats qu’on n’avait même pas cherché à obtenir : on parle alors de sérendipité.

QUELLES DONNÉES ENTRE LES MAINS DU TERRITOIRE ?

Entre la gestion administrative de ses structures avec les fichiers de ressources humaines, la sécurisation de leurs locaux (accès par badge, vidéosurveillance…) et la gestion de ses services publics (aide sociale, police municipale…), une collectivité récolte et brasse de nombreuses données personnelles sur ses citoyens.

  • Les données produites par les services publics locaux : les données internes, celles qui caractérisent l’action, les prises de décision, la mise en œuvre des politiques publiques, etc. Certaines de ces données sont concernées par l’open data et devront être libérées dans la nature.

  • Les données propres au territoire : celles qui sont produites par les communes, les agences, les médiateurs de service public, les consulaires, l’INSEE, l’INPI, les bailleurs sociaux, l’État, etc. On les appelle « le big data du territoire », tellement le volume est colossal.

  • Les données propres aux usagers dont les services publics disposent, pour le moment assez peu utilisées.

Quand tout à coup… on les libère

Jusque-là, c’est la collectivité qui décidait des données qu’elle libérait ou non. Mais en octobre 2016, la loi pour une république numérique dite « la loi Lemaire » est adoptée. Pour la première fois dans le monde, une loi provoque un changement radical de paradigme en posant le principe d’ouverture par défaut des données. C’est ce qu’on appelle l’open data. Cette loi devra être appliquée dans les collectivités pour octobre 2018.

Le décideur public aura le choix entre deux licences :

  • La licence ouverte : « vous faites ce que vous voulez avec mes données »
  • La licence ODBL (Open database license) qui prévoit une réciprocité dans leur utilisation : “vous faites ce que vous voulez avec mes données à condition que vous les repartagiez”.

Si on souhaite un autre de ces deux choix, comme ne pas ouvrir les données, il faudra être capable de le justifier et d’en demander l’autorisation à l’État. La justification de “secret commercial” est la plus utilisée par les grandes entreprises privées comme Google ou Amazone.

LES DÉFIS DES ORGANISATIONS PUBLIQUES

  • Les enjeux politiques : la transparence et la démocratie. Si les données pèsent sur le processus de décision, le citoyen devrait pouvoir s’en saisir pour apprécier plus justement cette décision. Avec cette transparence, les organisations publiques craignent d’être critiquées : les citoyens vont découvrir d’un seul coup les données personnelles que leur maire possède sur eux (il les a pourtant depuis longtemps). Pourtant, c’est en refusant la transparence qu’elles seront le plus critiquées.
    La confiance des citoyens envers leurs organisations publiques doit aussi être préservée. Il y a un paradoxe : on ne fait pas confiance en Google mais on lui donne toutes nos données alors qu’on fait confiance à notre collectivité mais on n’est pas prêt à lui en donner davantage. La clé de la confiance est dans la médiation et la compréhension par le citoyen de l’utilisation qui sera faite de ses données.

  • Les enjeux économiques liés aux conditions de réutilisation des données ouvertes, notamment par les privés. D’où la création de la licence ODBL prévoyant la réciprocité.

  • Les enjeux managériaux : Quelle organisation mettre en place pour ouvrir les données ? ça se discute au cas par cas, mais ce qui est sûr, c’est qu’il faut prévoir l’ouverture des données dès leur collecte et mettre en place les systèmes d’information capables de délivrer des données propres, fraîches et surtout de qualité. Ensuite, il faut réfléchir à leur réutilisation : rien ne sert d’ouvrir des données que personne ne réutilisera. L’idéal serait de passer d’un open data de l’offre (on ouvre selon ses propres contraintes) à un open data de la demande. Mais aujourd’hui, les dispositifs pour faire remonter la demande restent à inventer.

Pour faire de cette nouvelle obligation légale une opportunité, les organisations publiques doivent construire leur stratégie en diffusant la culture de la donnée dans l’organisation et en co-gouvernant le dispositif d’ouverture des données avec leurs réutilisateurs.


POUR PASSER À L’ACTION

LES CONTRIBUTEURS

  • Jacques Priol, auteur de Le big data des territoires : les nouvelles stratégies de la donnée au service de l’intérêt général (Editions FYP, novembre 2017).
  • Joël Gombin, politiste et data scientist, co-fondateur de la coopérative Datactivist.

Intervenant(s)

Organisateurs :

CNFPT

Intervenants :

Jacques Priol, auteur de « Le big data des territoires : les nouvelles stratégies de la donnée au service de l’intérêt général » (Editions FYP – novembre 2017)

Diplômé de l’ESCP Europe, MBA « management public », Jacques Priol est spécialiste de la gestion des données publiques et expert auprès de plusieurs réseaux publics. Il a été maître de conférences à l’ENA. Fondateur du cabinet CIVITEO, il a auparavant exercé des responsabilités territoriales variées. Il a notamment été directeur de l’office HLM de la ville d’Avignon, directeur général adjoint de la ville d’Évry, secrétaire général puis directeur de cabinet du conseil régional des Pays de la Loire.

Joël Gombin, est politiste et data scientist, il est co-fondateur de la coopérative Datactivist.

Diplômé de Sciences Po Aix, Joël Gombin est un expert reconnu de l’open data. Ses travaux d’analyse politique fondés sur la donnée sont nombreux. Il a notamment publié « Le Front national » aux Editions Eyrolles en 2016. Au sein de la coopérative Datactivist il pilote de nombreux projets d’ouverture des données dans des collectivités locales françaises. Il enseigne l’analyse de données et la culture générale des données à Sciences Po Paris, à Sciences Po Aix et à Sciences Po Saint-Germain-en-Laye.