Archives de catégorie : Web de données

Humeur du jour

Citations tirées de « Homo Deus : Une brève histoire de l’avenir » (2017) de Yuval Noah Harari, qui lance une violente charge contre les GAFA  : 

 

GAFA

« Aujourd’hui, aux États-Unis, on lit plus de livres numériques que de livres imprimés. Des appareils comme le Kindle d’Amazon sont capables de recueillir des données sur leurs utilisateurs pendant qu’ils lisent.

Par exemple, votre Kindle peut surveiller quelles parties d’un livre vous lisez rapidement ou au contraire lentement, à quelle page vous marquez une pause, et quelle phrase vous fait abandonner le livre pour ne plus jamais le reprendre. ( Mieux vaut dire à l’auteur de réécrire le passage.) Si Kindle est perfectionné et doté d’un système de reconnaissance faciale et de capteurs biométriques, il saura quel effet chaque phrase lue a eu sur votre rythme cardiaque et votre tension.

Il saura ce qui vous aura fait rire, rendu triste ou mis en colère. Bientôt les livres vous lirons pendant que vous lisez. Et alors que vous aurez vite fait d’en oublier la majeure partie, Amazon, lui, n’oubliera jamais rien. Ces données lui permettront de choisir des livres pour vous avec une précision troublante. il lui permettra aussi de savoir qui vous êtes exactement, comment allumer ou éteindre votre intérêt ».

« Tandis que le système global de traitement de données devient omniscient et tout-puissant, la connexion au système devient la source de tout sens. Les hommes veulent se fondre dans le flux de données parce que, lorsque vous en faites partie, vous appartenez à quelque chose de bien plus grand que vous. Les religions traditionnelles vous assuraient que chacun de vos mots et chacun et de vos actions faisaient partie d’un grand projet cosmique, que Dieu avait l’œil sur vous à chaque instant, et se souciait de vos pensées et sentiments.

La religion des data vous dit aujourd’hui que chacun de vos mots et chacune de vos actions font partie du grand flux de données, que les algorithmes vous observent sans cesse, et qu’ils se préoccupent de tout ce que vous faites et ressentez. La plupart des gens en sont ravis. Pour les vrais-croyants, être déconnecté du flux des données, c’est risquer de perdre le sens même de la vie. À quoi bon faire ou expérimenter quoi que ce soit si personne n’en sait rien et si ça ne contribue aucunement à l’échange global d’informations ? »

Être humain pleinement

L’importance de l’acquis et de l’environnement dans l’édification de l’être.

 

Un chapitre qui m’a interpellé sur l’être à l’heure des big data. Le titre du chapitre s’intitule « Penser ». Axel Khan y parle des GAFA, de l’intelligence artificielle et de la nécessité de garder le contrôle de nos pensées dans un monde si électronique.

Continuer la lecture de Être humain pleinement

Le modèle de données RDF

Voici la suite de mes articles sur le Web sémantique où j’aborde ici le modèle RDF.

RDF, le standard du Web sémantique pour la description de ressources :

RDF signifie Ressource Description Framework. On entend par « Ressource » tout ce qui peut être identifié sur le web par un URI : une voiture, une personne..

On entend par « Description » les attributs, les caractéristiques des ressources ainsi que les relations qui existent entre elles.

Enfin, « Framework » désigne le modèle RDF dans son ensemble, une sémantique.

Décrire des ressources sur le Web :

Prenons par exemple les éléments clés du langage d’une tablette de chocolat :

RDF
Source : MOOC Web sémantique

 

  • rdf:about : permet d’identifier la ressource décrite.
  • rdf:type : permet de typer cette ressource et d’exprimer ainsi qu’il s’agit d’une tablette de chocolat de la marque Villars. Même principe que le codebarres en somme.
  • rdf:label : permet d’exprimer pour un consommateur à la recherche de chocolat qu’il s’agit bien de « chocolat noir » dans cet emballage.

Le modèle RDF permet également d’enrichir les descriptions. Pour cette tablette de chocolat, on indiquera ainsi son producteur, son poids, ses ingrédients…

Continuer la lecture de Le modèle de données RDF

La HEG de Genève fête les 100 ans de formation en information documentaire

Pour fêter les 100 ans de formation en information documentaire, la HEG-Genève propose une semaine de conférences, tables rondes, ateliers, visites et autres festivités.

 

HEG Genève - Information documentaire

Le programme qui se déroulera toute la semaine du 18 au 22 juin sera le suivant :

 

  • Lundi 18 juin : Journée historique
  • Mardi 19 juin : « Les défis ID à l’heure du Web » (matinée) / « La bibliothèque 3e lieu : un défi à relever par les bibliothèques publiques » (après-midi)
  • Mercredi 20 juin : « La gouvernance des données au croisement de divers secteurs » (matinée) / « L’évolution de la veille : quels rôles et compétences à développer pour les professionnels de demain ? » (après-midi)
  • Jeudi 21 juin : « Data Professionals Day » (matinée) / « « Outils avancés pour l’accès à l’information » (après-midi)

Ci-joint, le programme en intégralité.

Véronique Mesguich interviendra notamment sur le thème « La veille en 2018 : quels rôles et compétences à développer » pour la demi-journée consacrée à la veille le mercredi. A suivre également un escape game sur l’Intelligence Economique…hâte de voir et tester !

La matinée du jeudi sur la data sera intéressante avec des témoignages de professionnels de la data, notamment Martin Grandjean qui a un blog toujours aussi enrichissant.

Vers un Web de données liées

Voici la suite de l’article « vers un Web de données » qui abordait l’histoire du Web, les principes architecturaux du Web et les grands principes du web de données : URL, URI, IRI.

 

De la page à la ressource :

Ce qui n’a pas changé au cours de ces évolutions, c’est le R, c’est à dire la notion de ressource. Cette notion de ressource est large sur le Web et ne se limite pas aux pages, images ou vidéos que l’on peut avoir sur le Web. Ainsi, on nommera « ressource » tout élément que l’on peut identifier à travers un URI : URI à ma voiture, URI à un lieu, URI à un bâtiment. Nous pouvons donc identifier n’importe quoi avec ce système et décrire toutes ces choses qui sont autour de nous et les échanger dans autant de langages que l’on veut.

Source : MOOC Web Sémantique

 

Les URI sont donc utilisées pour nommer des choses très variées.

Exemples :

  • URI pour le grand requin blanc (site BBC)
  • URI pour la protéine MUC18 (base de données UniProt)
  • URI du Musée du Louvre sur le site DBpedia
  • URI du réalisateur Xavier Dolan sur Wikidata

Nous avons donc moyen d’échanger les données mais la question se posera maintenant de les publier et de les lier. Rentre alors en jeu la ratatouille, où plutôt la datatouille !

Je m’explique : Une bonne ratatouille a pour principe de faire cuire un par un les légumes. Cuisinés un à un, on les mélange par la suite pour faire notre ratatouille. Ainsi, un des intérêts est que ce n’est pas uniquement un plat en lui-même mais un plat qui peut être utilisé comme ingrédient pour faire d’autres plats.

Source : MOOC Web sémantique

Si on revient alors à nos moutons, c’est la même chose pour le web de données liées. Il suffira pour cela de remplacer les différents ingrédients par des bases de données et choisir les données que l’on voudra publier et qui seront réutilisées par d’autres : données géographiques IGN, données statistiques INSEE…

 

Source : MOOC Web sémantique

 

Ainsi, par exemple les données qui décrivent le canapé sur lequel je suis assis par exemple pointeront vers les données de la salle dans laquelle se trouve ce canapé. Les données du canapé seront liées aux données de la salle. Vous la voyez la datatouille ?

Si on entre plus précisément dans le vif du sujet en utilisant les protocoles voici ce qu’il en est :

« Imaginons qu’un utilisateur lambda sur le Web rencontre un URI. Il fait une première vérification : est-ce qu’il s’agit d’un URI HTTP, c’est à dire un URI qui peut être interrogé sur le Web ? Si c’est le cas, il va utiliser le protocole HTTP pour faire un GET sur cet URI, une requête en disant « Qu’est-ce que c’est? » La réponse du serveur va varier. Si c’est un utilisateur qui est devant un navigateur, le serveur va lui renvoyer une page Web lui décrivant le sujet de cette URI. Si c’est un logiciel, téléphone mobile, GPS, le serveur va pouvoir lui renvoyer pour la même requête sur le même identifiant non pas une page Web mais des données XML que le logiciel pourra intégrer à sa base et utiliser pour proposer de nouvelles fonctionnalités » (MOOC Web Sémantique).

Comment choisir des URI pour nommer des choses dont on veut parler sur le Web ?

Il n’y a pas de réponse unique. Voir à ce sujet les deux ressources ci-dessous du W3C mais en théorie, on peut transformer tout identifiant en URI en choisissant un nom de domaine et un schéma d’URI.

A lire : 

Linked Data : Evolving the Web into a Global Data Space (1st edition) / Tom Heath et Christian Bizer (2011). Disponible gratuitement en HTML sur les principes des données liées

A voir :

Site du Linking Open Data cloud Diagram qui donne une vue globale du nuage de bases de données liées sur le Web.

Source : MOOC Web sémantique

 

http://lod-cloud.net/

La pile de standardisation : 

Les standards vont nous permettre de publier, d’interroger, tracer les différentes données sur le Web. La pile ci-dessous se lit de bas en haut, des URI jusqu’aux utilisateurs.

Source : MOOC Web sémantique

 

Source : MOOC Web sémantique

 

IDENTIFICATION : Identifiants URI et URI.

REPRESENTATION : représentation des données que nous échangeons sur le Web. Le standard utilisé est RDF, Resource Description Framework.

REQUÊTES : Une fois les données publiées, nous les interrogerons. Ainsi, pour écrire ces requêtes, les échanger et avoir des résultats on utilisera le langage SPARQL qui permet de sélectionner des sous-parties de données publiées sur le Web, qui  nous intéressent selon les critères que l’on veut donner.

RAISONNEMENT : Publication des schémas de ces données : 2 langages sont utilisés : RDFS pour échanger des schémas très légers et OWL pour nous permettre plus de formalisation en logique.

CONFIANCE :  Traçage des données, vérification des sources et si oui ou non on peut leur faire confiance. Le langage PROV suit les données, leur provenance et les traitements qu’elles ont subis.

INTERACTION : Avec l’utilisateur final. Proposition de nouveaux services, interactions aux utilisateurs lorsqu’ils utilisent le Web et naviguent quotidiennement.

Voilà, ce billet s’achève sur les standards utilisés dans le Web. Le MOOC aborde par la suite la deuxième brique de cette pile avec le modèle RDF, la première étant les URI que nous avons vu dans ce billet et introduit dans mon premier billet à ce sujet.

Le web de données

Récemment s’est terminé le MOOC sur le Web sémantique et de données, conduit par l’INRIA. Sept semaines denses et riches en connaissances.

La première semaine était consacrée au « web de données liées ». Comme pour toute introduction sur un sujet donné, il est bien de revenir au passé pour comprendre le présent. Nous avons donc eu un retour sur l’histoire du web :

  • Vannevar Bush (1890-1974) : son article « As we may think »  décrit quelque chose qui ressemble beaucoup au World Wide Web d’aujourd’hui. Il imagine le memex (memory extension) pour lire et consulter des documents et faire des liens d’association entre eux. cf la version en français de son article.
Memex, Life Magazine, 10 septembre 1945

 

  • Ted Nelson : Utilisera le memex et proposera une structure de fichiers qui permettra de découper les fichiers en morceaux, de les relier entre eux afin de pouvoir naviguer entre les morceaux. On parlera d’hypertexte et d’hypermedia.
Complex information processing: a file structure for the complex, the changing and the indeterminate, T. H. Nelson, ACM, 1965

 

  • Tim Berners-Lee : Permettra à ce qu’on n’utilise plus l’hypertexte sur une seule machine. On distribue les documents sur le réseau de façon à ce qu’un document puisse pointer vers un autre document. On parlera de Web.  cf le rapport de Tim Berners-Lee à ce sujet.
Information Management: A Proposal. Tim Berners-Lee, CERN, March 1989, May 1990

 

Ensuite, petit retour sur les 3 principes architecturaux du Web. Le premier principe, celui de l’identification ou de la localisation avec ce que l’on appelle les adresses Web ou URL.

Le second principe, celui du protocole, c’est-à-dire la façon dont les machines vont parler sur le Web, la façon dont le navigateur interrogera le serveur à distance et recevoir une représentation de la page qu’il a demandée. Ce protocole s’appelle HTTP.

Enfin, le dernier principe est le langage de représentation et notamment le langage de représentation des pages du Web. On l’appelle HTML (Hypertext Markup Langage).

Mis ensemble, chacun de ces composants va interagir avec l’autre. Le protocole HTTP utilise l’HTML pour faire transiter sur le Web des représentations de pages entre le serveur et ne navigateur. Les URL sont utilisées dans le HTML dans les représentations des pages pour tisser les liens entre les pages et indiquer que dans une page, un lien pointe vers une autre page. Ces mêmes URL qui sont utilisées par HTTP pour identifier et s’adresser à distance au serveur afin de récupérer la page dont il a besoin.

Focus ensuite sur le processus de standardisation au W3C, nécessaire pour harmoniser les évolutions du Web et qui suit des étapes bien définies.

Enfin, cette première semaine s’est terminée sur les grands principes du web de données :

  • nommer les ressources avec des URI (Uniform Resource Identifier) ;
  • utiliser des URI http (ou URI déréférençables) de façon à ce qu’on puisse utiliser ces URI pour accéder à des informations sur les ressources ;
  • lorsqu’on déréférence une URI, renvoyer des informations utiles grâce à RDF et SPARQL ;
  • se relier avec d’autres URI pour créer un réseau de liens.

En définissant ainsi la notion de ressource Web en passant des URL aux URI, nous avons vu comment l’on pouvait maintenant identifier tout type d’information sur le Web.

Nous avons pu alors poser les principes de la publication de données liées sur le Web et introduire la pile des standards du Web sémantique

En savoir plus :

Quelques ressources fondatrices du web de données :

  • DBpedia, base issue de la conversion en RDF des données de l’encyclopédie collaborative Wikipedia ;
  • Geonames, l’une des principales bases de noms de lieux avec les informations associées ;
  • MusicBrainz, base d’informations en RDF sur les œuvres et les artistes musicaux.