Actions

L’Annotateur: Difference between revisions

From Algolit

 
(One intermediate revision by one other user not shown)
Line 1: Line 1:
 
par Algolit
 
par Algolit
  
L'annotateur demande au visiteur de l'aider à annoter les archives du Mundaneum.
+
[https://gitlab.constantvzw.org/algolit/mundaneum/tree/master/exhibition/4-Informants/the-annotator Sources sur Gitlab]
 +
 
 +
L'Annotateur demande au visiteur de l'aider à annoter les archives du Mundaneum.
  
 
Le processus d'annotation est une étape cruciale de l'apprentissage automatique supervisé où l'algorithme reçoit des exemples de ce qu'il doit apprendre. Un filtre anti-spam sera alimenté d'exemples de spam et de messages réels. Ces exemples sont des entrées du jeu de données prévues d'une étiquette, spam ou non spam.
 
Le processus d'annotation est une étape cruciale de l'apprentissage automatique supervisé où l'algorithme reçoit des exemples de ce qu'il doit apprendre. Un filtre anti-spam sera alimenté d'exemples de spam et de messages réels. Ces exemples sont des entrées du jeu de données prévues d'une étiquette, spam ou non spam.
Line 7: Line 9:
 
L'annotation d'un jeu de données est un travail exécuté par des humains, qui choisissent une étiquette pour chaque entrée du jeu de données. Pour assurer la qualité des étiquettes, plusieurs annotateurs doivent voir la même entrée et donner la même étiquette avant qu'un exemple ne soit inclus dans les données d'entraînement. Une fois que toutes les données d'entraînement ont été prévues d'une étiquette, l'ordinateur peut lancer le processus d'apprentissage.
 
L'annotation d'un jeu de données est un travail exécuté par des humains, qui choisissent une étiquette pour chaque entrée du jeu de données. Pour assurer la qualité des étiquettes, plusieurs annotateurs doivent voir la même entrée et donner la même étiquette avant qu'un exemple ne soit inclus dans les données d'entraînement. Une fois que toutes les données d'entraînement ont été prévues d'une étiquette, l'ordinateur peut lancer le processus d'apprentissage.
  
Dans cette interface, nous vous demandons de nous aider à classer les textes nettoyés des archives du Mundaneum afin d'élargir notre set d’entraînement et d'améliorer la qualité de l'installation 'Classifying the World' dans Oracles.
+
Dans cette interface, nous vous demandons de nous aider à classer les textes nettoyés des archives du Mundaneum afin d'élargir notre set d’entraînement et d'améliorer la qualité de l'installation 'Classer le Monde' dans Oracles.
 +
 
 +
-------------------
  
 
Concept, code, interface : Gijs de Heij
 
Concept, code, interface : Gijs de Heij

Latest revision as of 17:53, 4 June 2019

par Algolit

Sources sur Gitlab

L'Annotateur demande au visiteur de l'aider à annoter les archives du Mundaneum.

Le processus d'annotation est une étape cruciale de l'apprentissage automatique supervisé où l'algorithme reçoit des exemples de ce qu'il doit apprendre. Un filtre anti-spam sera alimenté d'exemples de spam et de messages réels. Ces exemples sont des entrées du jeu de données prévues d'une étiquette, spam ou non spam.

L'annotation d'un jeu de données est un travail exécuté par des humains, qui choisissent une étiquette pour chaque entrée du jeu de données. Pour assurer la qualité des étiquettes, plusieurs annotateurs doivent voir la même entrée et donner la même étiquette avant qu'un exemple ne soit inclus dans les données d'entraînement. Une fois que toutes les données d'entraînement ont été prévues d'une étiquette, l'ordinateur peut lancer le processus d'apprentissage.

Dans cette interface, nous vous demandons de nous aider à classer les textes nettoyés des archives du Mundaneum afin d'élargir notre set d’entraînement et d'améliorer la qualité de l'installation 'Classer le Monde' dans Oracles.


Concept, code, interface : Gijs de Heij