Actions

Rencontres Algolittéraires: Difference between revisions

From Algolit

 
(14 intermediate revisions by the same user not shown)
Line 1: Line 1:
 
__NOTOC__
 
__NOTOC__
 
== Á Propos==
 
== Á Propos==
* [[Rencontres Algolittéraires - Algolit|Algolit]]
+
* [[Un Itinéraire Algolittéraire]]
* [[Program]] = [[Programme]]
+
* [[Programme]]
  
 
==Oeuvres Algolittéraires==
 
==Oeuvres Algolittéraires==
* [[Oulipo recipes]] = [[Recettes Oulipo]]
+
Une sélection d'oeuvres de membres d'Algolit présentées précédemment dans d'autres contextes.
* [[i-could-have-written-that]] = [[i-could-have-written-that FR]]  
+
* [[i-could-have-written-that FR]]  
* [[The Weekly Address, A model for a politician]] = [[The Weekly Address, Un modèle pour un politicien]]
+
* [[The Weekly Address, Un modèle pour un politicien]]
* [[In the company of CluebotNG]] = [[En compagnie de CluebotNG]] - decide on link to False Positive page
+
* [[En compagnie de CluebotNG]]  
 +
* [[Recettes Oulipo]]  
  
 
==Explorations Algolittéraires==
 
==Explorations Algolittéraires==
 +
Ce chapitre présente une partie de la recherche d'Algolit en 2016-2017.
 
=== Ce que la machine écrit: mise au point sur la sortie===
 
=== Ce que la machine écrit: mise au point sur la sortie===
* [[CHARNN text generator]] = [[Générateur de texte CHARNN]]  
+
Deux réseaux neuronaux sont présentés, quels contenus produisent-ils?
* [[You shall know a word by the company it keeps]] = [[Vous connaîtrez un mot par la compagnie qu'il tient]]
+
* [[Générateur de texte CHARNN]]  
 +
* [[Vous connaîtrez un mot par la compagnie qu'il tient]]
  
 
===Comment la machine lit: dissection des réseaux neuronaux===
 
===Comment la machine lit: dissection des réseaux neuronaux===
  
 
====Ensemble de données ====
 
====Ensemble de données ====
* [[Many many words]] = [[Beaucoup, beaucoup de mots]]  
+
Travailler avec des réseaux neuronaux inclut la collection de grandes quantités de données pour l'entraînement. Voici une comparaison avec la collection des mots de la Bibliothèque de St-Gilles.
* [[The data (e)speaks]] = [[La donnée (e)parle]] - needs to be completed
+
* [[Beaucoup, beaucoup de mots]]  
  
=====Ensembles de données publics communs=====
+
=====Ensembles de données publics=====
* [[Common Crawl]] = [[Common Crawl FR]]
+
Les ensembles de données publics les plus utilisées sont rassemblés sur [https://aws.amazon.com/public-datasets/ Amazon].
* [[WikiHarass]] = [[WikiHarass FR]]
+
Nous avons regardé de près les deux jeux suivants:
 +
* [[Common Crawl FR]]
 +
* [[WikiHarass FR]]
  
 
=====Ensembles de données Algolittéraires =====
 
=====Ensembles de données Algolittéraires =====
* [[Frankenstein]] = [[Frankenstein FR]]
+
Travailler avec des textes littéraires comme entrées génère une certaine beauté poétique dans la lecture/l'écriture des algorithmes. Voici une petite collection utilisée pour les expérimentations.
* [[Learning from Deep Learning]] = [[Apprendre de l'apprentissage profond]]
+
* [[La donnée (e)parle]]  
* [[nearbySaussure]]  
+
* [[Frankenstein FR]]
* [[astroBlackness]]
+
* [[Apprendre de l'apprentissage profond]]
 +
* [[PrèsdeSaussure]]  
 +
* [[AstroBlackness FR]]
  
 
====Des mots aux nombres ====
 
====Des mots aux nombres ====
* [[A Bag of Words]] = [[Un sac de mots]]
+
Comme l'apprentissage automatique est basé sur la statistique et les maths, le texte doit être transformé en nombres afin de pouvoir le travailler. Dans cette section, nous présentons trois techniques de transformation.
* [[A One Hot Vector]] = [[Un vecteur one-hot]]  
+
* [[Un sac de mots]]
 
+
* [[Un vecteur one-hot]]
====Exploration de paysages Multidimensionnels: le plongement lexical ====
+
* [[Exploration de Paysages Multidimensionels: Sur le plongement lexical]]
* [[About Word embeddings]] = [[Sur le plongement lexical]]  
+
* [[Plongement lexical: un cas d'étude]]
* [[Crowd Embeddings]] = [[Crowd Embeddings FR]]  
 
  
 
=====Différents portraits du plongement lexical =====
 
=====Différents portraits du plongement lexical =====
* [[Word embedding Projector]] = [[Projecteur de plongement lexical]]  
+
* [[Projecteur de plongement lexical]]  
* [[The GloVe Reader]] = [[Le Lecteur GloVe]] - Decide on Link to GloVe page...
+
* [[Le Lecteur GloVe]]
  
 
=====Inspection de la technique =====
 
=====Inspection de la technique =====
* [[word2vec_basic.py]] = [[word2vec_basic.py FR]]  
+
* [[word2vec_basic.py FR]]  
* [[Reverse Algebra]] = [[Algèbre Inversée]]  
+
* [[Algèbre Inversée]]
  
 
===Comment une machine pourrait parler ===
 
===Comment une machine pourrait parler ===
* [[We Are A Sentiment Thermometer]] = [[Nous sommes un thermomètre sentimental]]
+
Si un modèle d'apprentissage automatique pouvait parler, que dirait-il?
 +
* [[Nous sommes un thermomètre sentimental]]
  
 
== Sources ==
 
== Sources ==
* [[Algoliterary Toolkit]] = [[Boîte à outils Algolittéraire]]
+
Les scripts que nous avons utilisés et une sélection de textes qui nous ont accompagnés.
* [[Algoliterary Bibliography]] = [[Bibliographie Algolittéraire]]
+
* [[Boîte à outils Algolittéraire]]
 +
* [[Bibliographie Algolittéraire]]

Latest revision as of 15:23, 2 November 2017

Á Propos

Oeuvres Algolittéraires

Une sélection d'oeuvres de membres d'Algolit présentées précédemment dans d'autres contextes.

Explorations Algolittéraires

Ce chapitre présente une partie de la recherche d'Algolit en 2016-2017.

Ce que la machine écrit: mise au point sur la sortie

Deux réseaux neuronaux sont présentés, quels contenus produisent-ils?

Comment la machine lit: dissection des réseaux neuronaux

Ensemble de données

Travailler avec des réseaux neuronaux inclut la collection de grandes quantités de données pour l'entraînement. Voici une comparaison avec la collection des mots de la Bibliothèque de St-Gilles.

Ensembles de données publics

Les ensembles de données publics les plus utilisées sont rassemblés sur Amazon. Nous avons regardé de près les deux jeux suivants:

Ensembles de données Algolittéraires

Travailler avec des textes littéraires comme entrées génère une certaine beauté poétique dans la lecture/l'écriture des algorithmes. Voici une petite collection utilisée pour les expérimentations.

Des mots aux nombres

Comme l'apprentissage automatique est basé sur la statistique et les maths, le texte doit être transformé en nombres afin de pouvoir le travailler. Dans cette section, nous présentons trois techniques de transformation.

Différents portraits du plongement lexical
Inspection de la technique

Comment une machine pourrait parler

Si un modèle d'apprentissage automatique pouvait parler, que dirait-il?

Sources

Les scripts que nous avons utilisés et une sélection de textes qui nous ont accompagnés.