lpouillo / kwapi-g5k Goto Github PK
View Code? Open in Web Editor NEWThis project forked from openstack-archive/kwapi
Experimental Testbed Distributed Monitoring Framework
Home Page: http://kwapi-g5k.readthedocs.org
License: Apache License 2.0
This project forked from openstack-archive/kwapi
Experimental Testbed Distributed Monitoring Framework
Home Page: http://kwapi-g5k.readthedocs.org
License: Apache License 2.0
A rotation of the store file must be introduced.
Le plugin HDF5 de reims s'arrête sans raison apparente après quelques minutes.
Aucun log n'est affiché dans le fichier /var/log/kwapi/kwapi-hdf5.log ce qui pose problème pour diagnostiquer la panne.
Générer les graphiques sur le client via une bibliothèque Javascript.
Mail from Anthony SIMONET:
I have an issue when getting power metrics on the taurus cluster: there are less values returned than
there should be.
For example, this returns only 53 values despite the 1 second resolution:
https://api.grid5000.fr/stable/sites/lyon/metrics/power/timeseries/?from=1456413861&to=1456413921&only=taurus-8
Les fichiers SVG apporte l'avantage qu'ils ne sont pas compressés comme le sont les fichiers PNGs. On peut effectuer des zooms et les fiichiers SVG sont parfois plus légers.
La question ne se pose pas si l'on utilise une bibliothèque Javascript pour le rendu. On aurait alors le choix entre d'autres formats de sortie (Canvas par exemple).
Occurs on rennes, reims, nancy, not on lyon. A leak in SNMP driver ?
Quand des fichiers RRD sont manquants (drivers ne renvoyant pas de données pour une sonde donnée), le résumé du site n'est jamais récupéré dans le cache mais regénéré à chaque fois.
Beaucoup de fichiers PNG inutiles (car identiques) sont présent dans /tmp à cause de ça.
Il faudrait vérifier la valeur de la propriété cachable lorsqu'il s'agit d'un résumé.
Si l'on exécute cette commande:
curl -kn https://api.grid5000.fr/sid/sites/reims/metrics/power/timeseries/?job_id=1234
On obtient aucun résultat si les noeuds du job sont:
Message d'erreur:
2015-01-28 10:22:02 - INFO - _internal - 172.16.79.118 - - [28/Jan/2015 10:22:02] "GET /power/timeseries/?job_id=604063 HTTP/1.0" 500 -
2015-01-28 10:23:00 - ERROR - hdf5_collector - group ``/`` does not have a child named ``/nancy/griffon_9``
2015-01-28 10:23:00 - ERROR - hdf5_collector - group ``/`` does not have a child named ``/nancy/griffon_71``
2015-01-28 10:23:00 - INFO - _internal - 172.16.79.118 - - [28/Jan/2015 10:23:00] "GET /network_in/timeseries/?job_id=604063 HTTP/1.0" 200 -
2015-01-28 10:23:30 - ERROR - hdf5_collector - group ``/`` does not have a child named ``/nancy/griffon_9``
2015-01-28 10:23:30 - ERROR - hdf5_collector - group ``/`` does not have a child named ``/nancy/griffon_71``
Exemple Nancy:
Les identifiants interrogés sont différents de ceux présents dans le fichier HDF5.
Cela est dû à la façon dont le fichier HDF5 est interrogé. L'identifiant dans la base de donnée HDF5 peut différer du simple identifiant de sonde.
optionnaly add filltered data from job or probe selected
from cruiz
Hello,
I've just noted an incoherence in the KWAPI API. When executing the following request:
$curl -kn "https://api.grid5000.fr/3.0/sites/rennes//metrics/network_in/timeseries/?from=1450370360&to=1450370860&only=paranoia-3"
{
"items": [
{
"from": 1450370360,
"links": [
{
"href": "/sid/sites/rennes/metrics/network_in/timeseries/paranoia-3",
"rel": "self",
"type": "application/vnd.fr.grid5000.api.Timeseries+json;level=1"
},
{
"href": "/sid/sites/rennes/metrics/network_in",
"rel": "parent",
"type": "application/vnd.fr.grid5000.api.Metric+json;level=1"
}
],
"resolution": 1,
"timestamps": [
1450370362.236516,
1450370364.270576,
1450370365.856885,
1450370368.721628,
I'm able to get the data without any problem. However, the REST links are incoherent. They point to the sid version even though I use the version 3.0 of the API to perform the request.
Ganglia monitore déjà de nombreuses données dans Grid'5000.
Kwapi pourrait pousser les données qu'il récupère dans le Ganglia de chaque site.
Il faut écrire un plugin kwapi-ganglia qui envoie via multicast au bon format les informations des drivers récupérées.
L'image d'erreur ne s'affiche pas lorsqu'il s'agit du résumé de site.
Dans l'API on a:
"items": [
{
"links": [
{
"href": "/sid//sites/reims/timeseries/stremi-23",
"rel": "self",
"type": "application/vnd.fr.grid5000.api.Timeseries+json;level=1"
},
...
],
},
],
"links": [
{
"href": "/sid//sites/reims",
"rel": "parent",
"type": "application/vnd.fr.grid5000.api.Metric+json;level=1"
}
],
On devrait avoir: /sid/sites/reims à la place de /sid//sites/reims.
A Sophia, la VM de kwapi s'est arrétée car son disque était plein. La raison est un fichier de log trop gros sur la machine qui a rempli le disque (plusieurs Giga en quelques jour).
Kwapi-rrd n'arrivant pas à écrire dans les fichiers RRD, un message d'erreur était écrit plusieurs fois par seconde.
La solution serait:
La valeur de bande passante affichée sur le résumé globale du site pour le réseau est fausse.
On a une moyenne de plusieurs Pb/s (Petabits/s) sur le site de nancy.
Une erreur est sans-doute présente dans le calcul via rrdtool (fichier kwapi-g5k/kwapi/plugin/live/live.py)
Json probe configuration is buggy on Lyon site. Needs to fix probe_ids for this driver.
List of needed packages
insserv: warning: script 'kwapi' missing LSB tags and overrides
insserv: There is a loop between service minidlna and kwapi if stopped
insserv: loop involving service kwapi at depth 2
insserv: loop involving service minidlna at depth 1
insserv: Stopping kwapi depends on minidlna and therefore on system facility `$all' which can not be true!
insserv: exiting now without changing boot order!
update-rc.d: error: insserv rejected the script header
Dans la version 1.0, les valeurs d'énergie correspondant au même nom de sonde ne sont plus agrégées. Exemple: graphite-1 à nancy.
En effet, l’agrégation se fait sur le probe_id et non sur le probe_name.
Doit-on:
[pdu1]
probes=[pdu1.1, pdu1.2, pdu1.3]
probes_names=[nancy.graphite-1, nancy.graphite-1, nancy.graphite-2]
MAINTENANT
[pdu1]
probes=[pdu1.1-2, pdu1.1-2,pdu1.3]
probes_names=[nancy.graphite-1, nancy.graphite-1, nancy.graphite-2]
Dans ce cas les mesures de pdu1.1 et pdu1.2 sont toujours sommées sous le nouveau nom pdu1.1-2. Cela devrait fonctionner au niveau plugin.
Need to create a by site cookie, not by domain name.
La documentation du dépôt a besoin d'être raffraichie.
L'aggregation de lien peut poser problème dans Kwapi.
Actuellement:
Le script de configuration kwapi-g5k-conf créé différentes entrée pour chacun des liens. Si 2 switchs sont reliés par 2 câbles on aura alors:
Or dans la topologie on a:
En construisant les données, kwapi créé de nouvelles entrées SW2-A, SW2-B, SW1-C, SW1-D au lieu d'aggréger les données comme lien interswitch.
Objectifs:
Plusieurs paramètres de rrd.conf sont désormais inutiles, le plugin RRD ne faisant que stocker les metriques et ne générant plus les graphiques.
Un nettoyage s'impose.
L'exportation des fichiers rrd sous la forme d'un zip est cassé depuis la dernière version de Kwapi.
L'objectif serait:
A declarative, efficient, and flexible JavaScript library for building user interfaces.
🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.
TypeScript is a superset of JavaScript that compiles to clean JavaScript output.
An Open Source Machine Learning Framework for Everyone
The Web framework for perfectionists with deadlines.
A PHP framework for web artisans
Bring data to life with SVG, Canvas and HTML. 📊📈🎉
JavaScript (JS) is a lightweight interpreted programming language with first-class functions.
Some thing interesting about web. New door for the world.
A server is a program made to process requests and deliver data to clients.
Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.
Some thing interesting about visualization, use data art
Some thing interesting about game, make everyone happy.
We are working to build community through open source technology. NB: members must have two-factor auth.
Open source projects and samples from Microsoft.
Google ❤️ Open Source for everyone.
Alibaba Open Source for everyone
Data-Driven Documents codes.
China tencent open source team.