Giter Site home page Giter Site logo

s2.04's Introduction

s2.04 - Exploitation de BDD

Introduction

Lien du repos git: s2.04

Pour éxécuter correctement le fichier sql 'importation.sql', veuillez éxecuter la commande depuis la racine du projet soit:

Si le nombre de pages dépasse ceux attendus par le sujet, c'est essentiellement dû aux captures d'écrans qui prennent une certaine place, sans compter la page de garde et la page de la table de matières.

but1=> \i sql/importation.sql

Compilation du Markdown

Il faut un moteur PDF permetant de générer le pdf au préalable, tel que pdflatex.

Le fichier 'metadata.yml' inclut les données au-delà du fichier Markdown:

  • Le titre du document
  • Les noms des auteurs
  • Et plusieurs variables LaTeX pour configurer la page de garde
pandoc --toc --metadata-file=metadata.yml --template=template/eisvogel.tex README.md -o Rapport.pdf

Exercice 1 : Comprendre les données

Pour commencer, nous allons analyser les données de ces fichiers CSV, il faut comprendre ces données avant d'entreprendre toute action au niveau du SGBD.

Tout d'abord on compte le nombre de lignes de ces fichiers CSV

cat <nom_fichier> | wc -l

Soit:

  • athlete_events.csv : (271176 lignes)
cat csv/athlete_events.csv | wc -l
  • noc_regions.csv : (230 lignes)
cat csv/noc_regions.csv | wc -l

Il est aussi primordial de connaître la nature des valeurs de chaque ligne du fichier CSV, pour cela on regarde la première ligne de ce fichier car au format CSV, elle indique les colonnes.

cat csv/athlete_events.csv | head -n 1

Le format CSV (ou Comma-Separated Values) utilise comme son nom l'indique les virgules pour séparer les valeurs de chaque colonne, c'est ainsi que le fichier CSV est codé, cela nous sera important pour la suite des opérations.

On peut compter ce nombre de colonnes pour chaque fichier CSV:

  • athlete_events.csv : (15 colonnes)
cat csv/athlete_events.csv | head -n 1 | tr ',' '\n' | wc -l
  • noc_regions.csv : (3 colonnes)
cat csv/noc_regions.csv | tr "\r\n" "\n" | head -n 1 | tr "," "\n" | wc -l

Par exemple, nous pouvons remarquer une colonne 'Season' dans le fichier 'athlete_events.csv', qui stocke la saison d'une édition des JO pour chaque ligne.

Pour vérifier les données, nous pouvons vérifier l'existence de certains athlètes dans ce fichier CSV via cette commande:

  • athlete_events.csv : (6 lignes)
cat csv/athlete_events.csv | grep "Jean-Claude Killy" | wc -l

Nous avons donc un fichier CSV opérationnel.

Enfin, dernière chose à vérifier est évidemment l'encodage, il faut vérifier s'il est encodé autrement qu'en ASCII, pour le gérer par la suite. Ici, c'est ASCII donc on ne fera rien de spécial au niveau de l'encodage.

  • athlete_events.csv : (us-ascii)
file --mime-encoding csv/athlete_events.csv

Désormais, on envisage d’importer les données en créeant une table dans le base PostgreSQL et en utilisant la commande \copy pour copier les données du CSV dans cette table.

Exercice 2 : Importer les données

cf: sql/importation.sql, des commentaires ont été fournis pour étoffer nos explications...

Création et remplissage de la table import_athetes

Désormais, nous allons passer aux choses concrètes, en important les données dans le SGBD PostgreSQL...

Premièrement, nous allons stocker toutes les données sur une seule table qu'on va appeller 'import_athletes', nous avons géré le type de chaque colonne de cette table pour avoir les types de valeurs les plus précis et convenables possible selon la colonne. (ex: numeric(5,2) car le poids se situe entre 0 et 100kg doinc 3 chiffres et on considère 2 chiffres après la virgule)

CREATE TABLE import_athletes(
    id int,
    name varchar(500),
    sex char(1),
    age int,
    height int,
    weight numeric(5, 2),
    team varchar(50),
    noc varchar(25),
    games varchar(25),
    year int,
    season varchar(10),
    city varchar(25),
    sport varchar(25),
    event varchar(150),
    medal varchar(15)
);

Puis nous pouvons remplir désormais la table avec les données du CSV, en respectant quelques indications:

\copy import_athletes from 'csv/athlete_events.csv' with csv header quote '"' delimiter ',' null as 'NA';

L'explication de chaque option est détaillée sur le fichier sql/importation.sql, mais pour résumer cela permet de prendre en compte le format CSV en séparant correctement les donnés via des virgules et en gérant d'autres cas comme les valeurs nulles ou même le fait de considérer une valeur de cette forme "15" comme un entier que le SGBD va convertir implicitement en entier.

Ensuite, nous supprimons quelques données (ici toutes les lignes d'avant 1920 ou faisant référence à une épreuve artistique) comme il nous est indiqué, afin d'obtenir 255.080 lignes.

Création et remplissage de la table import_noc

Désormais, nous allons faire la même chose pour le fichier csv/noc_regions.csv, l'opération ne change pas tant que ça de csv/athlete.csv...

CREATE TABLE IF NOT EXISTS import_noc(
    noc char(3),
    region varchar(50),
    notes varchar(50)
);
\copy import_noc from 'csv/noc_regions.csv' with csv header delimiter ',' null as 'NA';

À la différence près qu'il manque un pays dans la table import_noc par rapport à la table import_athletes, c'est Singapour noté en noc 'SGP', il faut donc l'ajouter, et j'ai par la même occasion généralisé la requête suivante pour prendre en compte les cas où il y aurait d'autres pays autre que Singapour qui ne seraient pas dans import_noc

INSERT INTO import_noc SELECT DISTINCT
    a.noc,
    NULL AS region,
    NULL AS notes
FROM
    import_athletes AS a
WHERE
    a.noc NOT IN (
        SELECT n2.noc
        FROM
            import_noc AS n2);

Pour terminer il faut vérifier que le script soit idempotent, càd qu'il doit s'éxecuter indéfiniment sans compromettre et causer des erreurs dans le SGBD. Pour cela nous avons ajouté avant l'ajout d'une table cette ligne:

DROP TABLE IF EXISTS [table];

Il va tenter de supprimer la table pour la recréer, cependant s'il existe déjà il va poursuivre en ignorant cette instruction.

Exercice 3 : Requêtage sur les fichiers de départ (import et noc)

cf: sql/requetes.sql, pour cet exercice, la sortie attendue est précisée en commentaire de chaque requête...

Exercice 4 : Ventiler les données

Une question de conception...

Désormais, nous allons normaliser toutes les données de ces 2 tables, càd que nous allons décomposer les colonnes de ces 2 tables dans plusieurs tables en copiant les valeurs de ces 2 tables dans les tables que nous allons créer.

Pour cela nous allons concevoir d'abord un MCD viable permettant de représenter, structurer efficacement les données qui étaient au départ dans un énorme fichier CSV (import_athletes) et dans import_noc

Voici le MCD correspondant:

MCD du sujet

Un athlète participe à:

  • 0,N édition(s) (au cours de sa carrière il pourra être amené à participer à plusieurs Jeux Olympiques)

  • Pour 0,N épreuve(s) (l'athlète peut concourir à plusieurs épreuves durant une édition donnée)

  • Pour 0,N région(s) (l'athlète peut décider de représenter un autre pays durant une édition des Jeux Olympiques)

(Dans l'entité Epreuve il y a un attribut genre car on décompose l'evenement en [nom_evenement] [genre] [sport])

Voici le MLD associé:

Cela va nous permettre de penser plus rapidement la création des tables car cette notation se raproche plus de ce que va ressembler les tables...

  • Region(noc, nom_equipe, nom_pays, notes)

  • Athlete(ano, nom, sexe, age, taille, poids)

  • Edition(année, saison, ville)

  • Epreuve(evenement, nom_sport, genre)

  • participe(#ano, #evenement, #nom_sport, #genre, #annee, #saison, #noc, #nom_equipe, medaille)

Une question de taille !

Nous allons maintenant, calculer la taille de certains objets, en commençant par le fichier zip

  • data-olympique.zip : (5544725 octets)
wc -c data-olympique.zip | cut -d ' ' -f 1

On peut également vérifier la taille de la table import_athletes et import_noc...

Pour cela il existe une fonction sur PostgreSQL, pg_total_relation_size qui nous donne la taille en octets d'un objet en SQL (ici une table)

  • import_athletes : (46235648 octets)
but1=> SELECT pg_total_relation_size('import_athletes');
  • import_noc : (40960 octets)
but1=> SELECT pg_total_relation_size('import_noc');

Si l'on veut faire la somme de toutes les tailles de toutes les tables:

On divise par 10^6 pour obtenir le résultat en Méga-octets...

Taille totale: (106.37 Mo)

select sum(pg_total_relation_size) / 10^6 as taille_totale
from (
    SELECT pg_total_relation_size('import_athletes')
    union
    SELECT pg_total_relation_size('import_noc')
    union
    SELECT pg_total_relation_size('region')
    union
    SELECT pg_total_relation_size('athlete')
    union
    SELECT pg_total_relation_size('edition')
    union
    SELECT pg_total_relation_size('epreuve')
    union
    SELECT pg_total_relation_size('participe')
    ) as union_tables;

Si nous voulons obtenir les tables sous format CSV nous faisons ceci:

COPY region TO 'region.csv'  WITH DELIMITER ',' CSV HEADER;
COPY athlete TO 'athlete.csv'  WITH DELIMITER ',' CSV HEADER;
COPY edition TO 'edition.csv'  WITH DELIMITER ',' CSV HEADER;
COPY epreuve TO 'epreuve.csv'  WITH DELIMITER ',' CSV HEADER;
COPY participe TO 'participe.csv'  WITH DELIMITER ',' CSV HEADER;

Puis nous faisons la somme des tailles de tous les fichiers CSV exportés via ce petit script Bash:

get_size_file() {
    stat $1 | sed 1d | head -n 1 | cut -d ' ' -f 4
}

csvFiles=$(echo *.csv)
sum=0
for filepath in $csvFiles; do
    new=$(echo $(get_size_file $filepath))
    sum=$(expr $sum + $new)
done

echo "Taille totale:" $(expr $sum / $((10**6))) "Mo"

Ce qui donne environ 61Mo.

Exercice 5 : Requêtage

Désormais, nous allons passer au requêtage pour tester le bon fonctionnement de la conception de la base...

cf: sql/requetes.sql, pour cet exercice, toutes les requêtes sont dans ce script...

Exercice 6 : Personnalisation du rapport

cf: sql/requetes.sql, pour cet exercice, toutes les requêtes sont dans ce script...

Dans cette étape, semblable à l'exercice 5, nous allons effectuer nos propres requêtes, imaginer des requêtes les plus pertinentes possibles avec la seule contrainte du pays et du sport...

Nous avons choisi comme sport le Basket-ball et comme pays les USA

Sur toutes les requêtes il y aura donc ces restrictions:

r.nom_pays = 'USA' AND e.nom_sport = 'Basketball'

Requête n°1 : Moyenne d'âge des athletes masculins

Pour commencer, nous avons décidé de commencer par une requête qui indique la moyenne d'âge des joueurs de Basket masculins et américains participant aux JO. Utile pour mener des études statistiques.

SELECT avg(a.age) AS Moyenne_age
FROM
    -- Jointure SQL 89
    athlete AS a,
    epreuve AS e,
    region AS r,
    participe AS p
WHERE
    r.nom_pays = 'USA'
    AND e.nom_sport = 'Basketball'
    -- Vérifier que l'athlète est un homme
    AND a.sexe = 'M'
    -- Les athlètes participant aux JO
    AND a.ano = p.ano
    -- Les épreuves effectuées par les athlètes en question
    AND e.evenement = p.evenement
    AND e.nom_sport = p.nom_sport
    AND e.genre = p.genre
    -- Les régions que les athlètes représentent
    AND r.noc = p.noc
    AND r.nom_equipe = p.nom_equipe;

Aperçu de la requête 1{width=300}

Requête n°2 : Athlètes ayant participté au moins 3 fois à une édition

Deuxième requête, on cherche tous les joueurs de basket américains qui ont representé au moins 3 fois les États-Unis lors des JO.

SELECT a.ano, a.nom, count(*)
FROM
    -- Jointure SQL 89
    athlete AS a,
    epreuve AS e,
    region AS r,
    participe AS p,
    edition as ed
WHERE
    r.nom_pays = 'USA'
    AND e.nom_sport = 'Basketball'
    -- Les athlètes participant aux JO
    AND a.ano = p.ano
    -- Les épreuves effectuées par les athlètes en question
    AND e.evenement = p.evenement
    AND e.nom_sport = p.nom_sport
    AND e.genre = p.genre
    -- Les régions que les athlètes représentent
    AND r.noc = p.noc
    AND r.nom_equipe = p.nom_equipe
    -- Éditions associées aux participations des athlètes
    AND ed.annee = p.annee
    AND ed.saison = p.saison
-- On regroupe par athlète
GROUP BY a.ano, a.nom
-- On vérifie la fonction de groupe count(*) pour vérifier qu'il y bien au moins 3 participations en fonction du nombre de participations par athlète
HAVING count(*) >= 3;

Aperçu de la requête 2{width=300}

Requête n°3 : Athlètes qui ont participé à 3 éditions d'affilé

Cette fois-ci un peu plus subtil que la requête n°2, on cherche à déterminer les joueurs de basket américains ayant representé les États-Unis 3 fois d'affilé donc exactement 3 fois mais il faut aussi que ces 3 éditions se suivent consécutivement en terme d'années.

Pour cela on peut déjà utiliser la requête précédente comme base et y modifier quelques lignes en considérant que les JO se déroulent tous les 4 ans.

-- On supprime les doublons avec le mot clé 'DISTINCT'
SELECT DISTINCT a.nom, ed.annee, ed2.annee, ed3.annee
FROM
    -- Jointure SQL 89
    athlete AS a,
    epreuve AS e,
    region AS r,
    participe AS p,
    edition AS ed,
    edition AS ed2,
    edition AS ed3
WHERE
    r.nom_pays = 'USA'
    AND e.nom_sport = 'Basketball'
    -- Les athlètes participant aux JO
    AND a.ano = p.ano
    -- Les épreuves effectuées par les athlètes en question
    AND e.evenement = p.evenement
    AND e.nom_sport = p.nom_sport
    AND e.genre = p.genre
    -- Les régions que les athlètes représentent
    AND r.noc = p.noc
    AND r.nom_equipe = p.nom_equipe
    -- On vérifie la restriction suivante: annéeN < annéeN+4 (édition suivante) < (annéeN+4)+4 (édition suivante)
    -- (Édition n°1) Éditions associées aux participations
    AND ed.annee = p.annee
    AND ed.saison = p.saison
    -- (Édition n°2) Éditions qui se suivent juste après l'édition précédente (édition n°1)
    AND ed2.annee = ed.annee+4
    AND ed2.saison = p.saison
    -- (Édition n°3) Éditions qui se suivent juste après l'édition précédente (édition n°2)
    AND ed3.annee = ed2.annee+4
    AND ed3.saison = p.saison;

Aperçu de la requête 3{width=300}

Requête n°4 : Athlètes classés par taille du plus petit au plus grand

Enfin, la 4ème requête nous permet de classer la taille des joueurs de Basket américains du plus petit au plus grand, cette requête est pertinente pour le sport que nous avons choisi car cela nous donne un aperçu de l'écart de taille entre tous les joueurs de Basket (le plus petit mesurant 1m62) et peut être utile pour des études statistiques.

SELECT DISTINCT
    a.nom,
    a.taille
FROM
    -- Jointure SQL 92
    athlete AS a
    JOIN participe AS p
        -- Les athlètes participant aux JO
        ON a.ano = p.ano
    JOIN region AS r
        -- Les régions que les athlètes représentent
        ON r.noc = p.noc AND r.nom_equipe = p.nom_equipe
    JOIN epreuve AS e
        -- Les épreuves effectuées par les athlètes en question
        ON e.evenement = p.evenement
           AND e.nom_sport = p.nom_sport
           AND e.genre = p.genre
WHERE r.nom_pays = 'USA'
      AND e.nom_sport = 'Basketball'
      -- On vérifie que la taille n'est pas nulle car dans le CSV 'athlete_events.csv' certaines tailles n'étaient pas renseignées et cela pouvait donc biaiser le tri si on prend en considération les valeurs nulles
      AND a.taille IS NOT NULL
ORDER BY a.taille ASC;

Aperçu de la requête 4{width=300}

s2.04's People

Contributors

brvslow avatar mortim avatar

Stargazers

 avatar

Watchers

 avatar

s2.04's Issues

Finir l'exo 4

  • Compléter la table 'participation'
  • Finir les questions du sujet

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.