Ce document présente les résultats synthétisés du questionnaire sur les pratiques autour de la qualification des données géographiques

Les résultats bruts sont téléchargeables en cliquant ici

La qualité des données vous semble-t-elle un aspect nécessaire à prendre en compte avant usage de la donnée ? (sur une échelle de 1 à 5, du plus faible au plus fort)

Selon vous, que doit-on examiner pour pouvoir estimer la qualité des données ?

La présence de métadonnées suffit-elle à estimer la qualité des données ?

commentaire
Intégrité topologique
Cela devrait.
les métadonnées ne garantissent pas l’exhaustivité des données ni la précision thématique ou de position géographique des objets…
Les métadonnées sont souvent succinctes et ne précisent généralement pas les règles de saisie et de production des données, ni de cas d’usage
les fiches de métadonnées devraient être vulgarisées et plus accessibles. Le lien avec les données devrait être plus facile (ex : un champ de la table de données qui contiendrait le lien vers la fiche de métadonnées de la couche).
La qualité de la donnée doit etre réalisé sur chaque donnée avec des attributs généraux (voir edigeo) date de le vé auteur de la donnée methode de levé EMQ xy EMQ z
Elles permettent de gagner du temps en termes de compréhension de la construction et de la qualité de la donnée, mais ne se substituent pas à un contrôle plus approfondi de la qualité de la donnée dans la plupart des cas.
Les métadonnées ne permettent pas de connaître la qualité des objets graphiques par exemple.
Il manque souvent le dictionnaire des attributs Le contexte qui a vu la naissance de la donnée également. Un usage peut orienter la collecte de la donnée
nécessaire mais pas suffisant, en cas d’erreur corrélé à la position il peut être nécessaire d’ajouter une données erreur spatialisée
Pour chaque donnée, des infos sur la précision devrait être disponible dans la table attributaire. Par exemple : - donnée valide, non valide ou à valider ; - indice ou pourcentage de confiance pour les classifications automatiques ; - précision géographique…
Pas toujours, rien ne remplace les notices techniques quand la complexité de la donnée l’exige (contenu, méthode d’acquisition…)
Tout dépend de la qualité de ces métadonnées…
Vérification des données avant publication/comment/par qui/données brutes ou calculs issus de données brutes / unités des données mesurées sont essentiels pour une réutilisation par un tier.
Pas toujours, très variable selon les données
Les informations apportées sont parfois assez floues (différentes unités de mesure, peu d’indication sur la part des données contrôlées, etc.)
souvent trop succintes
Tout dépend de leur complétude !
Oui si la meta donnees est bonne
Toutes les métadonnées ne se valent pas
Certaines métadonnées sont si light qu’on a peine à comprendre la généalogie de la couche…
Si celles-ci sont correctement remplies et indiquent la complétude et l’exactitude des informations.
Il faut qu’elles soient correctement renseignées.
Aucune garantie sur l’exhaustivité, le positionnement et la validité du contenu des attributs
Les métadonnées peuvent être présentes mais incomplètes.
Ex: les occurrences pour chacun des champs pour des données vecteur permettent de voir si la donnée est cohérente (fautes de saisie)
à condition que le contenu de la métadonnée soit étudiée pour indiquer le minimum indispensable en termes de temps, contenu, structuration, source et exhaustivité ou non, etc.
A l’heure actuelle, les métadonnées fournies sont insuffisamment le reflet de critères qualité. Il faut se référer au documents d’accompagnement (descriptif de contenu à l’ign par ex) , quand ils existent…
cela dépend de la qualité de remplissage de la fiche MD
La réputation de l’organisme, le sérieux dans le temps, la rigueur permettent d’avoir une confiance dans les données. La réactivité lors de la découverte de problèmes sur les données. Des tests pour vérifier la qualité des données sont important
Pour peu que les métadonnées soient complètes ce qui est (très!) rarement le cas…
dans la mesure ou elles sont cohérentes et exhaussives
Les métadonnées sont très importantes mais il faut aussi s’assurer de la qualité des métadonnées renseignées
Q ambigue : une métadonnée bien renseignée oui.
oui et non en fonction de la qualité des métadonnées, souvent succinctes ou absentes
cela dépend du contenu des métadonnées. une carte de qualité pour le cas raster est appréciable
Oui si la métadonnée est correctement renseignée
La précédente question c’est n’importe quoi. On commence par qualifier le producteur de données.
il n’y d’ailleurs pas de balise “qualité” dans les métadonnées
Les métadonnées renseignent sur le contenu, peu sur la qualité dudit contenu. Elles sont nécessaires mais pas suffisantes
Tout dépend de la qualité de la métadonnée
oui à condition quelles soient correctement remplies, elles sont fiates en parties pour ça me semble t’il
l’adéquation à la représentation envisagée ne dépend pas des métadonnées
Non car le renseignement des attributs n’y est pas mentionné
Si bien rempli oui mais c’est loin d’être une généralité…
La manière dont sont saisies les métadonnées est trop disparate
les erreurs de géométrie entravent l’utilisation des données en fonction des logiciels SIG utilisés. Ces erreurs ne relèvent pas des métadonnées
En tout cas telles que les métadonnées sont généralement remplies, elles ne sont pas suffisantes. Les aspects temporels (datation des objets) y sont par exemple rarement décrits.
il faut que les métadonnées soient fiables et adaptées aux requêtes qu’on fera.
normalement …
ex de la plate forme data.gouv.fr avec des méta données très génériques, peu en lien avec la qualité de la donnée
Une exploration est nécessaire
Si on se réfère aux données accidents une vérification est toujours nécessaire
Une fiche de documentation serait un plus pour ne pas avoir à chercher dans le .xml ou autre…
Il est rarement inscrit dans la métadonnée le pourcentage d’erreur de localisation d’une donnée par rapport à la réalité. Prenons l’exemple du fichier SIRENE géolocalisé. La plupart des géocodeurs donnent un indice de qualité du géocodage par rapport à une adresse, mais rien n’indique sur les chances de trouver l’établissement ou non l’établissement à l’endroit pointé. Cette étude est réalisée dans l’entreprise où je travaille (ForCity) afin de pouvoir exploiter pleinement le fichier SIRENE.
Les métadonnées sont utiles pour avoir une compréhension globale d’une donnée. Elles doivent permettent de répertorier toutes les ressources associées à cette donnée, dont des documents précisant les résultats de test qualité
Il faut examiner les attributs et les entités géométriques
Les métadonnées donnent une explication sur la composition des données et leurs sources mais n’explicitent pas si les données sont fiables (la BdTopo de l’IGN en est le parfait exemple, souvent la hauteur des bâtiments est fausse et pourtant les métadonnées sont claires)
il faut un specialiste metier pour juger de la donnée.
c’est une information utile mais pas suffisante
si on renseigne totalement en norme inspire je crois que ça doit être pas mal
Dans le cas où les métadonnées existent, il faut tout de même vérifier qu’elles disent vrai ! Elles servent avant tout à guider l’utilisateur, à faciliter son travail mais cela ne doit pas l’empêcher de faire les différentes vérifications pour estimer d’après ses critères la qualité des données.
Trop peu de métadonnées sur les champs attributaires, et leurs valeurs,
pas toutes les infos prévues dans la norme
Les métadonnées définissent les limites d’usage donc c’est suffisant pour connaitre les défauts d’une donnée et l’utiliser en connaissance de cause.
Dans l’idéal, ce serait le cas. Mais dans les faits, des données sont difficiles à utiliser pour d’autres raisons que celles décrites dans la fiche de métadonnées (ex : erreurs de géométrie, …)
Quelles métadonnées ??
Renseigne la donnée mais ne permet pas d’évaluer la précision des éléments classés ci-dessus.
non mais elle est gage d’effort et de réponses apportées à des questions sur la qualité. Elle est un bon début vers la qualité
Les métadonnées ne sont pas suffisantes : il faut aussi des spec de saisie/contenu.
Les métadonnées décrivent ce que veut être le jeu de données, mais pas forcément ce qu’il est réellement.
Cela devrait être le cas, mais la réalité est toute autre.
la plupart du temps il n’est rien dit sur la précision du positionnement des objets
Il faut connaître la méthode d’acquisition des données et avoir vérifié le sérieux de l’entreprise qui a mené les enquêtes.
si la fiche est bien renseignée
C’est évidemment important pour savoir où on met les pieds, mais tout dépend de la qualité de ces métadonnées, il faut aussi une exhaustivité dans les métadonnées et qu’elles précisent les limites d’utilisation des données de manière claire et précise.
La fiabilité de la mesure en elle-même
La plupart du temps, les métadonnées sont remplies au minimum.
il faut des métadonnées de qualité issus de mesures effectuées sur les données
Si elles sont bien faites et complètes
à condition d’être bien renseignées
Souvent c’est l’utilisation directe qui donne le niveau de qualité car les utilisateurs n’en attendent pas forcément la même chose. Une note méthodo qui accompagne la méta donnée est essentielle pour comprendre ce qui est pertinent de faire ou pas, et comment.
si elles sont correctement crées
Il y a généralement peu ou pas d’information sur la qualité de la donnée dans les métadonnées. Ex : incertitudes, exhaustivité, etc… Encore moins d’informations concernant la qualité d’usage (qualité externe)
des documents annexes peuvent décrire cette précision

L’absence d’informations sur la qualité est-elle un frein à l’ouverture des données (OpenData) ? Si oui, pouvez-vous donner un exemple ?

commentaire
Dans un restaurant, on commence par regarder le menu.
RGE et OSM (Toutes en général)
peux t’on transmettre gratuitement ou pas des données sans informations sur la qualité!
De nombreuses données diffusées en OpenData n’explicitent pas suffisamment leur méthode de construction.
Sans métadonnées,on ne sait pas toujours ce que signifie les attributs.
Mise en place d’une application pistes cyclables sans être certain de la date des données “pistes”. Il est incontournable de savoir également si la donnée est exhaustive, en tous cas, tant que faire se peut.
Pas un frein à l’ouverture des données, mais frein à l’exploitation des données dans le cadre d’une étude.
Elle est forcément un frein à l’exploitation de la donnée SIG. Elle permet des mises en garde sur l’interprétation de résultats.
Mais c’est un frein à l’utilisation de ces données.
x
Une même donnée diffusée par différents organisme ont parfois des qualités et des niveau de précision différents. Exemple : Zonage Natura 2000 Source DREAl ou Source INPN
Si la donnée est accessible, mais qu’on ne sait pas comment elle a été construite, on ne sait pas quoi en faire. Disons que dans ce cas l’opendata est un sujet prématuré.
Je ne vois pas comment diffuser et utiliser des données sans avoir un minimum d’informations sur leur qualité ! Le risque est grand d’une mauvaise interprétation des phénomènes éventuellement mis en évidence par l’utilisation des données
il convient simplement d’afficher un niveau de qualité des données.
Il est important que la données soit la plus claire et la plus facile à utiliser (prête à l’emploi) pour pouvoir la diffuser sur les portails d’open data
Le protocole de création de la donnée est tout de même intéressant. j’ai en tête la création d’un jeux de places de stationnement qui ont été qualifiées à partir de délibération mais sans vérification terrain.
C’est surtout un frein à l’utilisation
Il est nécessaire de savoir ce que l’on utilise et d’en connaitre les limites.
Risque à utiliser des données de qualité non déterminées pour un usage professionnel par des bureaux d’études par exemple
Si pas d’info = possibilité que personne n’ait vérifié un minimum les données, donc moins de confiance
Sous réserve que la donnée soit explicitement “non qualifiée” afin d’éviter des usages inappropriés.
La crédibilité d’une donnée est essentielle à sa diffusion. Sans garantie de qualité, il n’est pas envisageable de l’utiliser
La réexploitation des données pour la construction de services numériques dérivés fait souvent fis de la qualité de la source elle même. Conclusion, on a des applicatifs bien développés fonctionnellement mais assis sur des données peu ou pas adaptées à l’usage réel (une fois passé le prototype).
La qualité de l’utilisation des données (analyses / représentations) dépend de la qualité des données. Les utilisateurs doivent pouvoir être avertis de la pertinence de la conclusion pour éviter les erreurs de diagnostics / jugements.
Pas de cas précis. Si la donnée est disponible, la mettre à disposition. Cela pourra amener à des critiques extérieures parfois dérangeantes mais obligatoires pour que le travail des services s’améliore.
pas nécessairement, car derrière l’opendata il y a déjà un acte volontaire et du travail. L’opendata demande néanmoins un certain jugement sur la fiabilité des producteurs/diffuseurs de la donnée
Les données ouvertes, sans métadonnées de qualité et donc d’avrtissement/précautions d’usage sont alors par défaut juger bonnes (car l’utilisateur en a besoin…) que à critiquer/vérifier
a minima il est nécessaire de préciser que l’on n’a pas ces informations.
elle doit être mentionnée honnêtement
la précision des données peuvent autoriser ou non certaines applications
Il est compliqué de transmettre des données sans en connaître le réel contenu
Pas d’exemple sous la main…
Mais peut etre un frein à l’utilisation des données
pas d’exemple précis mais effectivement, quand on récupère un jeu de données, c’est mieux d’avoir toutes les informations possibles quant à la qualité des données présentes
l’absence d’informations de qualité peut donner lieu à des interprétations erronées des données et donc à des retours nombreux (et une mauvaise presse) au producteur qui les a diffusées.
Parfois absence de la date de la donnée empêchant toute comparaison ou utilisation chronologique.
Rien n’empêche de diffuser une donnée de “mauvaise qualité” ou une donnée non finalisée
RPLS qui n’est pas correctement rempli et occasions de vrai problème dans son exploitation ( 3 jours pour trier des information…). L’adressage de chaque donnée devrait etre normé sur le référentiel de la BAN
idem précédent
A l’évidence non, mais cela devrait…
Sans parler uniquement Open Data, l’absence de connaissance sur la qualité des données a souvent été l’argument premier mis en avant par des producteurs non institutionnels pour éviter de diffuser leurs données.
En général, non. Il s’agit davantage de la présence d’informations nominatives qui contraignent la diffusion des données
les données “en l’état”, même sans information sur la qualité, c’est mieux que rien
l’échelle de réutilisation
La difficulté a comprendre la logique de structuration des données, rend plus difficile leur appropriation
Les gens les utilisent malgré tout
difficile de savoir si la donnée répond au besoin
les utilisateurs ne sont pas tous experts et cela peut donner de fausses interprétations
Les services hésitent généralement à mettre à disposition de la donnée non-qualifiée qui présente alors des risques de mésusages.
La réutilisation des données sans en connaitre la qualité risque de produire une information erronée. PAr exemple de la données géocodée sur une base dont la qualité n’est pas définie risque de donner des résultats à l’adresse, la rue, la commune sans que l’on puisse savoir ce qui est correct de ce qui ne l’est pas.
utilisation des données trafic sur isidor qui s’avèrent fausses lors des recoupemetns avec données des DIR.
Pas vraiment un frein à l’ouverture, mais peut-être un frein à la réutilisation de ces données…
Avoir de la donnée est un premier pas, la qualité de ces données doit être le second.
Géocodage BPE / SIRENE
Tout dépend de la précision que l’on souhaite communiquer, par exemple.
MNT non validé/vérifié
On ne sait pas se que l’on manipule ou diffuse
Cela ne doit pas être un frein à leur ouverture. En revanche, c’est certainement un frein à leur réutilisation
Mettre en ligne des données non datées par exemple
Impossible de juger, avant analyse approfondie de la qualité de la donnée.
Une donnée libre est une donnée sur laquelle on peut faire toute sorte d’exploitation et de conclusions… si la donnée au départ n’est pas fiable, alors le reste aussi !
L’absence d’informations sur la qualité entache les analyses faites à partir de ces données.
non, on n’empêche personne d’ouvrir des données médiocre. au moins c’est un début et l’ouverture permet d’ouvrir le débat notamment sur la qualité des données ouvertes
Obliger une personne un organisme à produire la métadonnée peut-être un frein à un volonté de vouloir la diffuser librement alors que la donnée peut-être de bonne qualité. En interdisant sa libre diffusion, parce qu’il n y a pas d’infos sur la qualité, on perdrait ainsi une source de donnée. Cette donnée non renseignée peut tout de même être qualifiée par l’utilisateur d’après ces critères (et quand il ne peut pas, à lui de faire le choix d’exploiter ou non la donnée).
Adresses
En général, c’est la principale raison de “blocage” de données par un producteur : “je sais que mes données ne sont pas parfaites, mais pas à quel point, alors je préfère les garder pour moi”. (ex : Etablissements recevant du public)
Faute de donnée de qualité, une donnée imprécise et/ou partielle à condition d’en avoir connaissance, peut être considérée comme un palliatif
Une profusion de données disponibles sans qualité spécifié -> quelle donnée utiliser ? Valable également pour la diffusion des scripts… Exemple : OCS GE ?
date de la donnée inconnu qui peut avoir changer
Possibilité de trouver des réseaux routier (OpenStreet Map) à utiliser mais les données ne sont pas cohérentes et incomplète ce qui génère un temps de retraitement important
tout dépend de l’information manquante
Sans information sur la qualité des données, il est impossible de donner les limites d’utilisation d’un modèle, etc.
Points d’accueil des réseaux de Police et de Gendarmerie: géocodage présentant de nombreuses erreurs de localisation, absence de description des champs, incohérence des champs
La qualité comportant des critères sur l’exhaustivité il est primordial de connaître ces informations
Frein non bloquant. Selon l’objectif et faute de mieux, on peut s’en contenter moyennant avertissement auprès des utilisateurs.
Ne pas indiquer si un objet est positionné à son emplacement réel ou au centroïde de sa commune de rattachement, par exemple.
Les données qui servent à établir des prescriptions (PPR par exemple), risque de recours du public en cas d’inexactitude ou d’incertitude
la manière dont on va utiliser la donnée puis conduire à des erreurs d’interprétation et des résultats d’analyse erronés.
Il est important de connaître le format de données, la taille (de l’échantillon étudié et des fichiers), les attributs disponibles. Si ces informations ne sont pas disponibles, j’hésiterai avant d’en télécharger depuis un observatoire ou le portail OpenData
Accorder du crédit à des données non suffisamment représentatives d’une population induit en erreur car une partie de la population peut être sur ou sous-représentée.
Difficile d’avoir des réutilisations opportunes si la donnée est ambiguë
pas certaine que l’utilisateur final est très vigilant sur la qualité des données,c’est au producteur d’être exigeant.
Pas d’exemple en tête mais mettre à disposition des données sans informations sur la qualité de ces données est à mon avis assez dangereux.
Pas un frein à l’ouverture, mais la réutilisation
Notamment l’aspect actualité des données
A condition de le spécifier dans la fiche de métadonnées
On ne sait pas ce que vaut la donnée. On peut avoir une donnée mais si ça se trouve elle date de 10 ans et n’est plus du tout d’actualité et peut engendrer de gros soucis.
il y en a multes !!! quand on ne sait pas ce qu’on compte, ni comment, comment tirer les bonnes conclusions surtout si ensuite on décide de faire des évolutions dans le temps !
si la donnée décrit le terrain il y a 30 ans sans le dire, l’utilisateur peut avoir de mauvaises surprises.
Comment développer des études basées sur des données qui ne sont pas qualifiées ? Chaque fournisseur devrait donner des indications sur cette question: Mais quel en serait le coût ?

A quel niveau estimez-vous connaître la qualité de vos données géographiques, sur une échelle de 1 à 5 (du plus faible au plus fort) ?

Avez-vous déjà été interrogé(e) par un utilisateur sur la qualité de vos données ?

Utiliseriez-vous des données en connaissant leur “mauvaise” qualité ?

Avez-vous déjà soumis des spécifications de qualité pour la réalisation d’une commande ?

Vous a-t-on déjà soumis des spécifications de qualité pour la réalisation d’une commande ?

Rapportez-vous la qualité de vos données géographiques ? Si oui, sous quelle forme ? (verbale, document,…)

commentaire
doc
métadonnées
Traitements topologiques
verbale
document d’information à l’attention des utilisateurs
Documents de saisie internes très synthétiques.
Document associé à la donnée (commentaire en base, fichier text associé à un shapefile, etc)
Document qui décris les règles de saisie et méthodes
Document expliquant la méthode de construction et les biais identifiés.
j’explique la composition de mes données dans un fichier txt ou par mail.
rapport
Verbale, métadonnées, fichier txt joint
Dans la table attributaire, pour chaque donnée.
Selon les cas, en précisant la méthode d’acquisition ou bien l’origine de la donnée
fiche de métadonnées et/ou courriel explicatif
Dans un document, sous forme de commentaire. Je souhaite aller plus loin.
document
petit texte expliquant comment elles ont été vérifier ou citant la source si elle est fiable.
Document de suivi de la base de données (généralement tableau XLS), métadonnées et info attributaire.
Note de synthèse
verbale + documents
Mixte en fonction des lots - verbale - métadonnées - attributs complémentaires à la donnée
Fiches métadonnées essentiellement
Métadonnée
Métadonnées, verbale
document, verbale,…
En général mes contributions sont publiées dans OpenStreetMap et la source est mentionnées avec possibilité d’ajouter des précisions dans le jeux de données.
Ça dépend, souvent sous forme de docs non hiérarchisés
Les données créées dépendant de données non qualifiées, il est difficile de qualifier nos propres données
document
Les informations sur la qualité et le mode de production de la donnée sont généralement consignées dans un rapport fourni au client.
fiches
Partiellement: pour la position géographique uniquement.
Verbale
Acte de mise à disposition disponible pour chaque donnée produite ou acte d’engagement pour les données émanant d’un producteur externe
document + métadonnée
métadonnées
Commentaires dans document après analyse des champs (règles de nommage), de leur contenu (erreurs de saisie), de leur type (encodage des informations non uniforme)
Tout élément susceptible d’indiquer le niveau de qualité, verbal ou écrit.
Oui, mais insuffisament. Le document d’accompagnement décrit la donnée, mais les résultats des contrôles qualité réalisé en interne ne sont pas communiqués.
Rapport de recette
Dans les rapports, il y a toujours un paragraphe sur les données en entrée, leur précision …
Rapport ou note accompagnatrice des données+metadonnées par attributs
Création d’indicateurs de qualité (de 1 à 5 par exemple) ou bien ajout d’un champ sur le pourcentage d’objets correctement renseignés à l’intérieur d’un objet ET paragraphes détaillés sur les limites d’usages / précision des données avant / après traitement dans les rapports techniques.
Attribut dans la donnée
sous forme de métadonnées
verbale lors de réunions, écrite (dans les rapports citant les sources, les outils de traitement utilisés)
Métadonnées
Document présentant les spécificités techniques
carte de confiance carte d’origine de la donnée statistique de fiabilité globale (exhaustivité, précision géométrique..)
Verbale lors des réunions et précautions à pendre concernant la qualité des données (datation, exhaustivité,…) dans les documents.
Document de spécifications
En interne, commentaires sur les tables
Forum
Rapport qualité
dans la fiche de métadonnées
Fichier Excel avec inventaire des métadonnées
document type texte livré avec les fichiers SIG
Mail, souvent
doc
dans les spécifications et dans la métadonnée
le plus souvent à ce jour, sous la forme d’un court document.
Métadonnées + document associé mais pas toujours il faut bien l’avouer
écrite
Dans la fiche de métadonnée
Métadonnées, verbale
verbale
métadonnées + dictionnaires des attributs des données
Guide utilisateur DVF
Quelques lignes de remarques, dans le rapport pdf
dans des listing de données, des fiches données, verbalement…
Document accompagnant les données.
écrit
Pour la base nationale des arrêts de transport collectif, on fournit un fichier d’indicateurs par dataset, dont le nb de coord à 0, et des ratios permettant d’estimer la probabilité de mauvaise qualité
Souvent verbale, Écrit pour des études à visibilité importante.
Document word et excel
document
Fiche de synthèse dans le dossier en cours et source utilisée (BDD, année, producteur)
Verbale
Note écrite
Etudes statistiques, cartographies, tableaux, graphiques regroupés sous le nom d“indicateur” de qualité et accompagner d’un score (sur 100) aidant à l’interprétation sur la valeur de qualité de l’indicateur. L’idée d’une application de datavisualisation concentrant l’ensemble des études réalisées pour évaluer et définir la qualité des données produites ou exploitées par mon entreprise est en cours de discussion.
métadonnées
spécifications de qualité
Mention écrite
Sous toutes formes lors de la communication de données à un tiers
Métadonnées
en général, si mes données font partie d’un livrable, j’indique dans le livrable les métadonnées et je mets en garde l’utilisateur de la précision… mais j’avoue ne pas le faire systématiquement.
rapport
métadonnées
Métadonnées (norme Inspire)
Je nuancerai ma réponse. J’informe le plus possible sur la qualité des données acquises ou produites qui sont diffusées à un tiers via : des métadonnées internes au fichier, des documents word produit par mes soins ou par les logiciels, voire verbalement.
document
Document relatif à la méthode de collecte
En général via une fiche de métadonnées. Parfois par mail ou note/rapport.
Site web, dictionnaire en ligne, “note” de qualité pour chaque attribut principal. + qualité générale liée à la source de la donnée. Une fiche texte accompagne la livraison des données et renvoie sur le site web.
Source des données (ne précise pas vraiment la “qualité”) ou commentaire quand doute sur la validité des données
Paragraphe dédié dans un document.
verbale à destination des collègues, documentée pour les utilisateurs (rarement utilisée par ceux-ci)
métadonnée et parfois guide méthodologique.
On affiche verbalement en essayant de chiffrer en % la donnée qui peut-être imprécise ou imcomplète.
Documentation
support du niveau de qualité : - fichier listant les défauts à corriger - mails informant du degré de confiance sur la qualité - information verbale par contact direct avec les partenaires (fournisseurs et utilisateurs)
Si les md sont insuffisantes, sous forme de document joint.
Document, métadonnées voire attributs si la qualité varie au sein d’une même table.
Malheureusement nos utilisateurs ne s’en préoccupent pas
Hypothèses et périmètres de validité dans les rapports d’étude
Métadonnées ou précisions lors de la transmission du lot de données.
Sources année
Pour les données en Open Data sur Géobretagne, spécification en métadonnées
fiche de contrôle des données:précision,conformité modèle,exhaustivité
La qualité de la donnée est retranscrite dans les métadonnées et le catalogue des données sous la forme d’attributs indiquant les conditions de récolte de la donnée, ses limites en terme de précision et d’utilisation, …
Métadonnées et méthodes de production
Document
rapport de contrôle qualité
fiche métadonnées
Dans la géobase ou sur geo-ide catalogue.
fiches métadonnées
métadonnées
document : données qui répondent à des CCTP
Mais nous y travaillons activement et la réponse n’est pas aisée.
verbale par écrit avec la transmission des données
verbale, document

Utilisez-vous un logiciel pour rapporter la qualité de données géographiques ? Si oui, lequel ?

commentaire
FME, ArcGIS et QGIS
Un outil de gestion du GéoCatalogue nommé COSIG
FME ET QUALIGEO
geoportail de l’urbanisme
Mais j’envisage de le faire.
qsphere (QGIS)
Développement interne
OSM gère automatiquement le stockage d’un certains nombre d’information, auteur, source, logiciel utilisé, date.
Fonctions perso sous QGis
Fme
excel
?
Pas de logiciel, uniquement une page web “Documentation” sur le portail
geonetwork pour les métadonnées
Je n’en connais pas
Qgis
Ça m’intéresserait…
ArcGis QGis et MapInfo accessoirement
Je n’en connais pas
FME
Je ne connais pas de logiciel de rapportage de la qualité
PRODIGE/GéoIDE
R comme outil de programmation et de stats
GeoNEtwork
A l’absence d’outils spécifique interne à la collectivité, fichier excel + métadonnées sur Géobretagne
fme, sql
Qgis (recherche d’erreurs de géométrie)
FME
c’est un jugement métier
CONCERTO
Par contre, vérifier une donnée entre géoportail et ce que l’on a en magasin, ça arrive…
Geoportal
Soecs en cours d’écriture, voir commentaire plus haut.
SIMAP
Contrôle de la topologie avec ArcGIS
D’ailleurs, depuis le début du questionnaire, on parle de “qualité de données” mais qu’est-ce qu’il y a derrière ce terme ??? En mesures physiques, fiabilité, sûreté, ont des définitions bien spécifiques quand on parle d’un capteur. Il faudrait bien définir les choses aussi pour les données géographiques !
ESRI, 1Spatial
plusieurs
Pour les données topographiques : covadis ou trimble office Pour les données spatiales produites : métadonnées via les logiciels SIG ou txt dans le pire des cas.
nos outils SIG
Geosource
Tableur(fiches de métadonnées “types” de l’IGN), traitement de texte, mail …
Geonetwork
scripts SQL pour audit de contrôles en base de données.
Qgis
pour générer les résultats oui pour les rapporter non en dehors de documents word, excel (ou pdf)
ArcGIS
Géo-ide base et géo-ide catalogue

Corrigez-vous fréquemment des données incorrectes / imprécises / incomplètes ?

Les géostandards (CNIG, COVADIS) vous semblent-ils suffisamment précis en termes de spécifications de qualité attendue ? Si oui pourquoi ?

commentaire
Docs de grande qualité
Topologie non respectée
Car la précision géométrique demandée (CNIG) pour des objets non liés au référentiel cadastrale est de 5m par rapport à une édition papier au 1/2000. 5m d’erreur possible, c’est trop important par exemple pour un positionnement de réseau souterrain. Pourquoi à l’heure du numérique dans des recommandations de numérisation se baser sur des éditions papiers, quand bien même sont elles encore opposables. Une grande précision numérique impose de facto une grande précision d’édition papier, qq soit l’épaisseur du trait.
Ils manquent souvent de cas d’usage qui permettent de savoir à quel usage est adaptée la donnée
Oui mais peut-être pas assez vulgarisés?
ils détaillent clairement la structuration de la donnée, le contenu attendu et les règles de correction à appliquer.
Trop déconnecté de l’usage réel des SIG et des prestataires Géomètres…
ne connais pas
Permet de croiser l’information
Je ne connais, finalement, que le standard PLU … :/ Je viens de découvrir les géostandards COVADIS …
Mauvaise connaissance de ces standards.
Sans doute. Je n’ai pas eu le temps de les “prendre en main”.
Les géostandards CNIG de standardisation des PLU apporte un cadre suffisant de spécifications.
J’aurai préféré cocher “Partiellement”
je ne sais pas…
Oui, je n’ai pas tout lu et je ne veux pas répondre non
nsp
Le problème vient surtout du (non) respect des géostandards. Les règles de la CNIG sont déjà assez détaillées et difficiles à suivre comme ça. Le problème est aussi du côté de l’hétérogénéité des standards
je ne connais pas
La qualité des données passe d’abord par une uniformisation de leur modèle, ces standards y contribuent pleinement.
Trop généraliste,il faut aller plus loin.
Ils me semblent suffisamment précis mais tout est perfectible à commencer par le respect de ces géostandards au même titre que les métadonnées…Suivant les spécificités des territoires (etc.) certains producteurs de données dérogent à ces normes qui sont pourtant plus qu’utiles!!!
définissent un cadre commun de contenu
pas de précision sur la qualité géométrique attendu. Manque souvent la contrainte attributaire (obligatoire / vide autorisé…)
Même si ils sont souvent complexes et demandent des notions en modélisation pour être compris.
les prescriptions CNIG OCS GE ne donnent par exemple pas de méthode permettant de qualifier la donnée vis à vis de données exogènes (le mot qualité n’apparait d’ailleurs pas dans le document!)
CNIG oui CEREMA non.
Encore trop limité à la description du contenu. Ils présentent quand même l’avantage de définir un cadre à partir duquel on peut estimer les usages possibles des données produites en conformité avec le standard.
je ne manipule pas souvent les geostandards mais de ce que j’en sais oui.
Trop souvent trop compliqués et, parfois obsolètes
Oui car ils préconisent à la fois les spécifications de saisie et de réalisation. Ils décrivent également les attributs et l’obligation de les remplir ou non pour une meilleure compréhension de la donnée
Les géostandards ne sont généralement que des modèles logiques
pas toujours. Standard covadis des données véloroutes et voies vertes insuffisamment structuré pour les POI (points d’intérêts)
les modalités d’élaboration des prescriptions type ER ne sont pas précisées.
Toutes les aspects de la qualité ne sont pas toujours spécifiés
ne connais pas
J’aurais voulu choisir “Ne sait pas” car je ne connais pas ces géostandards, mais ce choix n’est pas proposé…
Cadre commun avec lequel nous parvenons à travailler. Pas en ce qui concerne les zonages des PLUi.
Ils permettent à minima de définir un cadre dont on connait les limites, il est ainsi plus facile d’exploiter les résultats d’études obtenus à partir de ces données.
Précision des spécifications techniques (MCD, MPD).
NSP
Les GéoStandards fixent des structurent mais rien sur la fiabilité des données…
J’ai répondu oui car je n’ai pas le choix : je ne connais pas suffisamment bien les géostandards pour me permettre de les juger. J’aurais préférer ne pas me prononcer sur cette question.
Mais parfois les modèles sont trop complets voire complexes et se rapprochent d’un modèle métier alors que le standard ou norme devrait être plus générique.
Le simple fait de mettre un filtre pour pouvoir déposer des données est déjà un argument en soi
Mais ils sont souvents un peu trop “touffus” pour qu’un producteur sache vraiment où trouver les informations dont il a besoin au moment de créer ses données.
Réponse Oui par défaut, ne connaissant pas les géostandards
sans avis, je les connais mal
Ne sais pas
C’est une tentative intéressante de standardisation et d’usages simplifiés. Ils ouvrent du coup le champ des possibles vers d’autres disciplines que l’urbanisme
Je ne connais pas ces standards. Ne tenez donc pas compte de ma réponse. (le sondage ne prévoit pas de cas ne se prononce pas).
je suis convaincu d’avance qu’ils sont précis, mais je ne les utilise pas.
Dans la plupart des cas, des champs relatifs à la précision de la données sont intégrées aux tables.
Je ne les utilise pas.
Je ne connais que le référentiel COVADIS de nom. Il va falloir que je me renseigne
Je ne sais pas, ne connait pas assez ces standards.
Dans l’ensemble, la qualité de la donnée est bien prévue. Le problème est souvent que le producteur de la donnée renseigne correctement.
suffisamment précis mais peut-être peuvent-ils l’être encore davantage, cela dépend de la thématique en face.
Beaucoup de données sont créés par des non spécialistes. Pour l’instant, tout le monde ne les connaît pas ou ne les utilise pas.
j’ai répondu oui mais ne sais pas aurait été mieux
Les normes se focalisent sur l’aspect struturation de la données, peu sur la qualité attendue (précisions, cohérence etc …)
il apporte une réponse partielle à la problématique de la qualité (mdd). c’est déjà très bien.

Les données OpenData vous semblent-elles de bonne qualité ?

commentaire
quelles données?
ça dépend lesquelles…
Topologie non respectée Sémantique également Doublon géométrique et attributaire
C’est variable
C’est très variable et là encore ça dépend de l’usage
Non car trop d’hétérogénéité selon les territoires. Exemple : chaque DREAL partage ses données à sa guise. Aucune structure nationale n’est définie ou en tous cas n’est utilisée. Ce qui rend complexe l’élaboration de bases de données nationales.
L’OpenData nous donne accès à des données auxquelles nous n’avions pas accès ou difficilement dans le passé. Cependant, c’est à l’utilisateur de savoir ce qu’il en fait et d’assumer la responsabilités de ses productions ultérieures.
Cela dépend des données, mais même lorsque ce n’est pas le cas, elles ont le mérite d’exister et peuvent être consolidées.
Il est impossible de répondre vraiment, tout dépend des données …
la qualité correspond à la description faite dans les métadonnées
Les informations sur les données sont souvent manquantes ou incomplètes.
En général…
J’aurai préféré cocher “Partiellement”
De manière générale, leur qualité me semble très inégale. Elles sont souvent insuffisamment documentées.
Oui mais ça dépend pour quoi faire…
Lorsque les producteurs sont des acteurs de réseaux comme Apidae, les informations sont intéressantes.
nsp
Individuellement peut-être, pour faire des études à un instant précis, mais pas pour mener des comparatifs géographiques ou temporels
mais ca dépend lesquelles
Celles diffusées sur le portail data.gouv et certifiées.
En tout cas en moyenne assez mal décrites pour que l’on puisse s’en servir correctement.
Pas toujours
de manière générale non (données non géographiques, notamment par le manque de normalisation), sur les données géographiques plutôt oui par l’expérience INSPIRE.
Au cas par cas selon les organismes, on peut mettre oui ou non.
relativement, et j’oriente mes choix en fonction de mon ressenti ou des éléments que je récupère sur leur qualité, en me renseignant directement auprès du diffuseur ou producteur au meilleur des cas.
Tout et n’importe quoi, sans réel suivi des série temporels/millésime, on ouvre pour ouvrir
Trop facile de déclarer ses données en opan data.
c’est variable
Tout dépend de ce qu’on appelle de bonne qualité…Elles sont bien utiles pour dépanner mais exemple sur les établissements de santé FINESS qu’il vaut mieux demander directement à l’ARS pour avoir la dernière version à jour + la précision de la géolocalisation après géocodage …Conclusion :certaines données ne sont pas à jour alors que les dernières versions sont disponibles directement auprès des producteurs de ces données (RPG => DRAAF pour autre exemple?). De plus les métadonnées ne sont pas toujours disponibles…(ou alors je ne sais pas chercher…:-P)
Je n’évalue pas vraiment ce critère au global
oui et non selon
Celles utilisées en provenance des grandes structures (DGFIP, IGN…) étaient de qualité
Sur les quelques jeux de données en opendata utilisés (deux outrois), je n’ai pas eu de soucis
Oui et non: cela dépend de l’usage qu’on en fait. La “bonne” qualité est relative par exemple à l’échelle d’utilisation.
Très variable. Et appréciation subjective en fonction des usages
Il y a peu de données de bonne qualité ou documentées avec des méta-données. La plupart des données OpenData ne passent pas par la case Qualité
c’est très variable
A condition que les métadonnées soient bien renseignées sur al partie qualité
relativement
C’est un a priori car la réponse est en faite : je ne sais pas.
pas toujours
Pas de problème de qualité globalement mais plutôt de connaissance des limites de la donnée
assez peu d’expérience pour l’instant mais les quelques données utilisées n’étaient pas très fiables
Exemple des données d’offre de transport en commun mises à disposition au format GTFs : nombreuses erreurs constatées à l’usage des fichiers.
Ca tend à s’améliorer mais au début de l’OD, la qualité pouvait passer après le nombre de publication
ça dépend
En tout cas, la qualité est hétérogène, et la qualité des métadonnées mauvaise
Certaines oui
Pour celles que je connais.
Cela dépend des jeux de données et également inadéquation entre notre besoin et le but de réalisation de la donnée.
Les informations attributaires sont souvent très précises sur les OpenData car produites par des locaux. En revanche, la cohérence topologique et la validité géométrique des données géographiques sont peu vérifiées
tres variable
Qualité très variable selon sujet et producteur.
Globalement, sur celles que j’utilise oui !
Le manque d’information sur ces données ne permet pas d’évaluer la qualité.
Je n’ai pas un aperçu assez vaste pour pouvoir répondre à cette question. Elles sont parfois de bonne qualité parfois non (difficilement exploitable).
Héterogeneité entre territoires,
Lorsqu’elles sont utilisées, la qualité ne doit pas être un frein à l’ouverture des données et des données de faible qualité peuvent avoir un usage. La qualité est très variable dans l’open data mais c’est l’usage des données qui doit primer.
Bien que cela dépende de l’objet d’étude
Ce n’était pas le cas il y a quelques années. On observe un belle amélioration ces dernières années.
A priori pour les données disponible sur un site instiutionnel
mais lesquelles ?
Bonne qualité quand provenant des administrations publique Moins bonne pour les base créées par de multiples usagers
Ça dépend…
il y a tout et n’importe quoi !!!
oui mais,
Comment répondre à cette question tant les sources sont différentes. Certaines sont de qualité et d’autres sont mauvaises… La qualité dépend aussi de l’usage qu’on veut en faire…
En général, les données sont publiées quand leur maturation (en terme de qualité) est élevée.
… de manière globale et pour celles que nous utilisons.
Qualité très variable et pas toujours indiquée
Pas assez d’information sur leur qualité
ça dépend des données recherchées.
Je n’en ai jamais utilisé, je m’en méfie et je ne sais pas où les trouver.
C’est très variable selon les données
Compte tenu de la pluralité des sources oui, mais il y a souvent beaucoup de préparation des données pour s’en servir par la suite.
j’ai répondu oui mais ça dépend des données
Pas tout le temps
c’est très hétérogène ! et on ne parle pas que de qualité de données GOEGRAPHIQUES !!!!
difficile de se prononcer vu la masse de données
mais parfois suffisante selon l’usage (ex. OSM)

Avez-vous été amené(e) à choisir votre source de données en fonction d’éléments relatifs à la notion de qualité ?

Vous sentez-vous “responsable” de la qualité/non-qualité des données que vous diffusez et des usages qui en sont faits ? Si non, pourquoi ?

commentaire
Si on a produit une donnée c’est qu’elle était adaptée au besoin que l’on avait… De ce point de vue elle est donc de qualité. Mais elle peut ne pas répondre aussi bien à d’autres besoins… dont on n’est pas responsable.
Permet de confronter la donnée métier à la réalité
Dans le cadre d’études environnementale pour des aménagements (infrastructures), des données erronées peuvent conduire à proposer des procédures inutiles ou à l’inverse induire des impacts non prévus.
oui pour la qualité mais pas forcément de l’usage qui en est fait ensuite s’il ne correspond pas à la qualité mentionnée.
Si données en LO, la LO précise explicitement "L’absence de défauts ou d’erreurs éventuellement contenues dans l’ « Information », comme la fourniture continue de l’ « Information » n’est pas garantie par le « Concédant »" Si donnée diffusez par convention, les métadonnées peuvent contenir des informations de Qualité dans les champs date, précisions et résumé ou généalogie
Oui, dans la mesure ou les outils’ réfactions que nous créons ne seraient pas pertinent si les donnees sont fausses
La saisie dans OpenStreetMap quand bien même certaines démarche sont menées en mode projet sont itératives. La qualité peut sans cesse monter en qualité.
Je suis responsable sur la communication de cette qualité, qu’il n’y ai pas de quiproquo
Usage professionnel
Je ne diffuse pas de données “grand public” mais fournit les données environnementales que nous produisons. Responsable de la qualité des données produites mais pas de l’usage que en est fait.
responsable de la diffusion pas de l’usage qui en est fait
Je ne diffuse pas. Je consomme les données des autres. Je veille à ne pas faire dire aux données ce qu’elles ne peuvent pas exprimer, si pas assez qualitatives.
Je ne diffuse pas si j’ai un doute ou un problème sur une donnée.
Nous diffusons une données produites par des collègues. Nous précisons le niveau de qualité estimé. Nous essayons d’associer des documents pour préciser les limites d’usages.
Oui, dans une certaine mesure. Une phrase qu’on entend de plus en plus souvent : “on exploite parfois des données pour leur faire dire des choses alors qu’elles ne sont pas du tout faites pour ça”! Mais avons-nous vraiment le choix sous la pression des commandes et en l’absence de données plus exhaustives et/ou de meilleure qualité? Les traitements qu’on en fait sont en revanche sous notre entière responsabilité.
C’est le rôle d’un ADL
même si le frein principal est le temps passé à rendre la donnée propre, à la standardiser..
je suis contributeur sur openstreetmap, donc j’ai conscien de la qualité des données
c’est la responsabilité du producteur
Sauf s’il s’agit de données dont je suis producteur
du moment que le destinataire est informé, il est ensuite responsable de l’usage qu’il fait de la donnée, quelle que soit son niveau de qualité
Nous ne sommes pas producteurs de la plus part des données que nous diffusons.
Si on produit une carte, on s’assure qu’elle soit utilisée dans le cadre voulu en spécifiant aux utilisateurs les limites…
Certification ISO9001
partiellement
Une fois les métadonnées précisant les limites d’utilisation d’un jeu de données, l’usage qui en est fait est de la responsabilité du réutilisateur de cette donnée.
A partir du moment où on explicite clairement cette qualité, c’est à l’utilisateur d’évaluer si celle-ci lui suffit ou pas.
la qualité des données engage et reflète ma responsabilité ainsi que ma conscience professionnelle.
Il faut faire la part des choses entre producteur de données et diffuseurs d’une analyse réalisée à partir de données récupérées. Souvent, on doit faire avec ce que l’on a
je suis adl donc responsable en premier lieu sur la qualité des données que je diffuse.
En partie, qualifiant les données de l’IGN, je suis humblement en partie responsable de la qualité des données diffusées (mais pas des usages qui en sont faits)
la qualité : oui les usages qui en sont faits : non, c’est impossible !!!
totalement responsable et agissant pour aller dans le sens d’une meilleure qualité

Avez-vous des besoins d’accompagnement concernant la qualité des données ? Si oui de quel ordre ?

commentaire
méthodologie, normes, outils
notice
Export vers QGIS
Quelles sont les qualités de données normalisées ou standardisées? Quel degré de peut on attendre ou demander suivant la nature ou la thématique des données? Comment peut on vérifier la qualité des données ou comment peut on simplement trouver l’information sur la qualité d’une donnée?
Que je trouve au niveau de mon IDG
Sur la manière de communiquer sur le sujet et pour améliorer mon niveau d’expertise de la donnée à disposition ou proposée par nos partenaires directs.
Je pense me contenter, dans un premier temps, de la méthode que vous aller diffuser.
En termes de méthodes, d’outils automatisés, de partage des connaissances sur ce sujet.
Formation aux bases de données qu’on utilise, surtout quand elles sont secrétisées = mode de production, limites, etc.
Structuration de champs normalisé indépendamment du lot de données permettant de qualifier la qualité ou de la non qualifier
La qualification des données dans OpenStreetMap se font à partir du wiki qui permet de se caler sur un référentiel logique à l’échelle internationale.
des consignes à suivre, des métadonénes à fournir
Un template simple récapitulant les éléments permettant de qualifier la donnée ?
Documentations, préconisations.
La gestion temporelle
standardisation et structure précision géographique
sensibilisation - formation
Rédaction de CCTP ou de procédure interne de production de données
Comment estimer la qualité? Comment communiquer dessus?
Existe-t-il un schéma à appliquer pour communiquer de façon transparente sur la qualité des données que nous livrons? (explications techniques dans les rapports, limites d’usage à intégrer dans les métadonnées, etc.).
processus de qualification d’appréciation
domaine trop vaste pour l’exprimer ici en quelques lignes
quels critères de qualité prendre en compte pour utiliser/écarter certaines données ? peut-on faire le choix de ne pas utiliser certaines données que l’on sait de mauvaise qualité ou est-on obliger de les utiliser quand meme ? besoin d’outils pour évaluer la qualité de mes données
spécification, formation
  • méthodologie - logiciel pour aider à formater un jeu de données (ETL…) - formation
formation interne
Mettre en place un outil de vérification ou une méthode
Logiciel, procedure
évaluation plus précise que des commentaires
Structuration des métadonnées et mise à jour des métadonnées
Je connais déjà le sujet
Au niveau des aspects théoriques, oui
Méthode de remplissage d’une métadonnée
Mettre en place une méthode d’évaluation de la qualité des données que je produis
c’est toujours bon à prendre
des conseils sont toujours bon à prendre
Formation
formations utilisateurs
Conseils méthodologiques pour travailler à plusieurs organismes pour alimenter une même données, sur un même secteur géographique
Évaluation de leur qualité
formation
Disposer d’un logiciel de gestion des métadonnées, formation sur la précision des données géographiques.
Définition et méthode de controle.
savoir à qui s’adresser pour connaitre la qualité des données isidor
Normes, outils.
Dans mon entreprise, nous utilisons les données géographiques pour faire tourner des modèles de simulation urbains. L’étude qualité des données aide à l’interprétation des tendances présentes dans les résultats de simulation.
Accompagnement sur la différenciation des qualités et la notion de qualité géographique.
Technique
qu’est-ce qu’on entend par qualité de données ? sur quel critère on la juge ? comment on peu la renseigner ?
Toujours ! J’apprends encore.
Reste à définir,
outillage
Un outil simple pour produire des fiches de métadonnées. Et pour lire celles au format xml…
Définition des plages de précison attendues
Comment évaluer la qualité des données produites à partir de sources multiples ? Comment présenter les métadonnées de qualité de façon communicante (mais non effrayante !)
Ne se prononce pas
Remise à niveau par rapport aux standards.
plutôt des logiciels d’automatisation du contrôle qualité
référentiels de qualité : je sais qu’il en existe, mais leur étendue et complexité fait que je sais que je ne pourrai pas (jamais) remplir complètement leurs exigences. Du coup je ne les lis quasiment pas… :-(
… et oui : toute aide est la bienvenue.
Déjà comprendre ce que cela veut dire exactement et simplement(mon profil: chargé d’études thématique producteur de données et de SIG avec uniquement formation “sur le tas” en géomatique)
Un accompagnement serait souhaité pour savoir expliquer facilement ce qu’est la qualité à nos utilisateurs
présentation d’outils pour le controle des données
guide / sensibilisation / formation / forum
Principalement, je dirais qu’un suivi des normes et des standarts réguliers est utile
Besoins de connaitre les informations attendues par les clients sur les contrôles qualité effectuées à l’IGN
?
trouver une méthode simple et rapide pour le cataloguage des métadonnées
procédures existantes, exemples
Process d’amélioration continue des jeux de données
docs, ouvrages disponibles

Connaissez-vous la norme 19157 ?

Seriez-vous intéressé par la mise en place d’une formation sur la qualité des données ? Sur quel aspect en particulier ?

commentaire
normes, outils
pas le temps, un support écrit me suffira
Intégrité topologique et sémantique
Normes et standards sur lesquels s’appuyer? (présentation, explications) Définition de la qualité des données (dimensionnelles, géographiques, attributaires, …)? Comment et où renseigner la qualité des données que l’on crée ou que l’on corrige?
Sur un ensemble de réflexes à avoir quand on produit ou contrôle une donnée.
Il serait bien que la norme 19157 soit diffusé gratuitement par le CIG ou le CRIGE PACA voir GeoRezo
les fondamentaux, la relativité , les outils disponibles.
En général, sur les données de base utilisées en collectivité
Améliorer mon niveau d’expertise et ma communication sur la qualité des données utilisées et mise à disposition de nos utilisateurs
Dans un premier temps. Peut-être par la suite.
Standardisation, métadonnées
L’aspect juridique et législatif, les techniques et outils automatiques existants, les méthodes de contrôle qualité.
Si ciblé sur des bdd précises. Pas du générique.
Comment mettre en place une organisation et structuration générique pour toutes les données (importées ou produites localement)
Sur tout
organisation des données sur différentes périodes
métadonénnées
Pourquoi pas, je vais déjà me rendre au Géosémianire des SILAT le 6 mas à MTP qui traite cette année de ces aspects !
Je ne produis pas assez de données pour véritablement avoir besoin d’être formé, sauf s’il y a un niveau “débutant” de prévu
Méthodologie pour la production de données de qualité (Renseignement des métadonnées, points de vigilance…), standards et normes, comment améliorer la qualité des données d’un fichier
L’aspect statistique des contrôle n’est pas évident et mérite plus de formation/rigueur qu’actuellement, il en va de la crédibilité/inférence du contrôle.
Le contrôle des données
comment faire simple. Le niveau de qualité requis dépend aussi des usages
Estimation et communication
Quelle forme revêt la notion de qualité des données? A partir de quel moment doit-on accepter ou refuser d’utiliser / de traiter des données peu fiables? Quelles formes pour qualifier les données que nous livrons?
mesure et qualification de la donnée
la gestion des met-données
auto-évaluer la qualité de ses données (des outils, des méthodologies). Comment citer la qualité des données utilisées pour u client (écrite dans un rapport, fiche descriptive annexée, création d’une fiche simplifiée de métadonnées spécifique à l’étude…)
Outils de contrôles
  • méthodes et outils - compréhension des standards (clés sur la modélisation…)
Général
Logiciel, procedure, méthodologie
question précédente je vais payer pour la connaître?
sur tous :-)
Sur la méthodologie et l’évaluation
les impacts que peut avoir une mauvaise donnée réutilisée
identification et correction
Conseils méthodologiques pour travailler à plusieurs organismes pour alimenter une même données, sur un même secteur géographique
Évaluation de la qualité
éviter/corriger les erreurs de géométrie sur Qgis, connaitre les meilleurs outils et les méthodes
Comment gérer des métadonnées ? Quels sont les principaux problèmes de qualité des données (géographiques ou non) ? Comment les détecter ?
sur les données externes à la structure
Normes, Outils, juridique.
Normes utilisées à l’échelle européenne. Outils d’évaluation existants ou promus. Evolution du géocatalogue.
Mise en application opérationnelle de la norme.
cela peut être intéressant mais abordé du point de vue pratique, et non théorique en rentrant dans le détail de la norme, par exemple.
veille et cas pratiques, retours d’expérience
Méthodes de qualification Production de métadonnées théorie sur les différentes normes …
Le tracé et suivi de la production des données pour en estimer la qualité/fiabilité
Remplissage simple de fiches de métadonnées ?
Pour connaître les points de vigilance avant leur utilisation
comment évaluer l’échelle d’utilisation en fonction de la précision des données spécifiées. Comment communiquer sur la qualité des donnée de façon communicante sans effrayer.
Remise à niveau par rapport aux standards.
contenu des métadonnées qualité géographiques et attributaires
recommandations méthodologiques simples et synthétiques (process, audit de données) pour tendre à améliorer leur qualité.
Formation courte et simplifiée, généraliste, à destination des chargés d’études thématiques, producteurs ou agrégateurs de données. En FOAD.
savoir analyser la qualité des données en fonction de l’usage que l’on souhaite en faire
Les référentiel de qualité de la données COVADIS et CNIG.
Formation réalisée par le réseau Géobretagne.
aspect théorique d’abord puis par le biais d’application de cas concret.
Je ne sais pas en particulier
Sur ce qu’il faut s’assurer pour avoir une donnée de qualité.
évaluer simplement la qualité d’une donnée reçue
Qualité externe : comment la qualifier ?
standard/norme méthodes
Déjà fait une formation sur ce sujet à l’IGN-ENSG
je peux me former moi-même

Votre structure

Votre métier

Etes-vous utilisateur, producteur ou gestionnaire d’information géographique ?

Commentaires côté administrateur / gestionnaire

commentaire
Extraction, stockage, traitement
Gestion des données dans différents projets de recherche via des bases de données
En qualité de responsable SIG
Données de référence , d’intérêt commun,Métier
Base de donnée interne faune et flore
Mise en oeuvre Réf Géo, Anime, Coordonne, Centralise les données pour connexions au applis métier, diffusion, valorisation, analyse …
Données SIG du réseau Très Haut Débit du Pays d’Aix
de la BDT de la Ville de Hyères
adl de la dreal et de sigloire, PF d’échange
données de deux services sur l’eau et la biodiversité
plateforme de diffusion Prodige
Administration de données relatives au patrimoine bâti
des données produites et gérées par notre service
gestion de la base de données partenariale
Administrateur de données transport
missions d’assistance aux administrateurs locaux
pour la base ATC (arrêts de transport collectif)
gestions d’observatoires
Modélisation de bases de données (PostGIS), conception des chaînes de de traitement de données, analyse qualité des données produites et d’entrée
via un NAS uniquement de l’ensemble de la donnée spatiale produite et exploitée pour une opération archéologiue
exploitation, entretien, évolution de bases de données et d’outils SIG
plans topographiques, orthophotographie, plan photogrammétrique, cadastre
administrateur de la diffusion intranet des données
principalement

Commentaires côté producteur

commentaire
Nettoyage
production de données issus de croisement d’informations de terrain
En qualité de responsable SIG
données topo par ex
Nous produisons des données propres au SCOT (SCOT, TVB, unités paysagères)
Données faune et flore
surtout pour un usage interne mais les données sont de plus en plus souvent transmises à d’autres services publics
Production pour utilisation en interne (puis plus tard sans doute en externe)
Producteur pour le compte de certains clients non equipes d’une competence sig
Données Réseau
BD ADRESSES et autres données métiers
par l’intermédiaire de prestataires tiers
Données territorialisées de type inventaires ou définitions de zonages particuliers
dans le cadre de chargé de projet
Système d’information sur les évolutions du lit de la Loire
OCS SAT régional
Collecte de nouvelles données sur le patrimoine bâti
données issues de bases de données non geographiques
principalement utilisateur de données, l’agence produit cependant quelques données
résultats d’études et production de couches associées.
Référentiel metier
Cartes
Données sur la qualité de l’air, l’énergie et le climat
cartes de bruit issues de modélisation utilisant beaucoup de données (et donc de sources et qualités différentes)
données topographiques
retraitement des Fichiers fonciers et suivi des usages, accompagnement des utilisateurs.
Création de base de comptages
Gestionnaire et diffuseur
production/édition de couches de données, de cartes, d’outils SIG pour responsables fonctionnels
plans topographiques, orthophotographie, plan photogrammétrique
Ensemble des productions des référentiels de l’IGN
données en lien avec l’agriculture, l’alimentation et la forêt
Peu de production
carte de compilation des périmetres d’EPTB
relevé/cration des bases de données

Commentaires côté utilisateur

commentaire
Plateforme de modélisation
Recours aux données de l’IGN par exemple ou de grandes bases de données mondiales
Données des Métiers par ex
utilisons des données variées pour produire du potentiel foncier, résidences sexcondaires
Occupation du sol, données faune et flore…
De nombreuses données pour consolider mes propres données en lien avec l’énergie (à l’échelle bâtiment notamment)
Référentiels
DGFIP, IGN, CRIGE PACA, Concessionnaires, Métropole TPM
consulter, cartographier, diffuser
Données thématiques générales (forêt, biodiversité, eau…)
dans le cadre de travaux géomatiques divers
Utilisation de données de références et de données thématiques
de toutes sortes de données internes ou externes
réutilisation des données IGN, Etat, …
traitement des données et représentations graphiques, cartographiques…
Modélisation de déplacements
pour les études
pour des études
Réalisation de cartographies pour PPR et autres…
Référentiel géographique
MNT principalement
Nombreuses données de référentiels externes
cartes de bruit issues de modélisation utilisant beaucoup de données (et donc de sources et qualités différentes)
fonds de référence IGN, SHOM, et données issues d’IDG
Utilisateurs des fond routes, bâtiments…
IGN, INSEE, DGCL, OSM, EuroGlobalMap, etc…
Utilisation de données externes dans des analyses croisées
plans topographiques, orthophotographie, plan photogrammétrique, cadastre
Données en santé-environnement
référentiels
périmetres des EPTB produit par les membres