Actions

Rencontres Algolittéraires: Difference between revisions

From Algolit

(Created page with "__NOTOC__ Hey Emma, This is a start of the French version of the Algoliterary Encounters catalog. We marked the pages below that are ready to be translated. It would be nice...")
 
 
(82 intermediate revisions by 5 users not shown)
Line 1: Line 1:
 
__NOTOC__
 
__NOTOC__
 +
== Á Propos==
 +
* [[Un Itinéraire Algolittéraire]]
 +
* [[Programme]]
  
Hey Emma,
+
==Oeuvres Algolittéraires==
This is a start of the French version of the Algoliterary Encounters catalog. We marked the pages below that are ready to be translated. It would be nice to translate the titles of the works into French as well, the titles below are still the English ones.
+
Une sélection d'oeuvres de membres d'Algolit présentées précédemment dans d'autres contextes.  
 +
* [[i-could-have-written-that FR]]
 +
* [[The Weekly Address, Un modèle pour un politicien]]
 +
* [[En compagnie de CluebotNG]]
 +
* [[Recettes Oulipo]]
  
Thank you!
+
==Explorations Algolittéraires==
 +
Ce chapitre présente une partie de la recherche d'Algolit en 2016-2017.
 +
=== Ce que la machine écrit: mise au point sur la sortie===
 +
Deux réseaux neuronaux sont présentés, quels contenus produisent-ils?
 +
* [[Générateur de texte CHARNN]]
 +
* [[Vous connaîtrez un mot par la compagnie qu'il tient]]
  
---
+
===Comment la machine lit: dissection des réseaux neuronaux===
  
== General Introduction ==
+
====Ensemble de données ====
* [[Introduction Algolit]] - ready!
+
Travailler avec des réseaux neuronaux inclut la collection de grandes quantités de données pour l'entraînement. Voici une comparaison avec la collection des mots de la Bibliothèque de St-Gilles.
* [[Program]] - ready!
+
* [[Beaucoup, beaucoup de mots]]  
  
==Algoliterary works==
+
=====Ensembles de données publics=====
* [[Oulipo scripts]] - ready!
+
Les ensembles de données publics les plus utilisées sont rassemblés sur [https://aws.amazon.com/public-datasets/ Amazon].
* [[i-could-have-written-that]] - ready!
+
Nous avons regardé de près les deux jeux suivants:
* Obama, model for a politician
+
* [[Common Crawl FR]]
* [[In the company of CluebotNG]] - ready!
+
* [[WikiHarass FR]]
  
==Algoliterary explorations==
+
=====Ensembles de données Algolittéraires =====
===A few outputs to see how it works===
+
Travailler avec des textes littéraires comme entrées génère une certaine beauté poétique dans la lecture/l'écriture des algorithmes. Voici une petite collection utilisée pour les expérimentations.
* CHARNN text generator
+
* [[La donnée (e)parle]]
* [[You shall know a word by the company it keeps]]  
+
* [[Frankenstein FR]]
 +
* [[Apprendre de l'apprentissage profond]]
 +
* [[PrèsdeSaussure]]
 +
* [[AstroBlackness FR]]
  
===Parts of NN process===
+
====Des mots aux nombres ====
 +
Comme l'apprentissage automatique est basé sur la statistique et les maths, le texte doit être transformé en nombres afin de pouvoir le travailler. Dans cette section, nous présentons trois techniques de transformation.
 +
* [[Un sac de mots]]
 +
* [[Un vecteur one-hot]]
 +
* [[Exploration de Paysages Multidimensionels: Sur le plongement lexical]]
 +
* [[Plongement lexical: un cas d'étude]]
  
==== Datasets ====
+
=====Différents portraits du plongement lexical =====
* [[Many many words]] - ready!
+
* [[Projecteur de plongement lexical]]
 +
* [[Le Lecteur GloVe]]
  
* [[Common Crawl]]
+
=====Inspection de la technique =====
* [[Frankenstein]]
+
* [[word2vec_basic.py FR]]  
* [[Learning from Deep Learning]]
+
* [[Algèbre Inversée]]
* [[AnarchFem]]
 
* [[WikiHarass]]
 
* [[Tristes Tropiques]]
 
  
==== From words to numbers ====
+
===Comment une machine pourrait parler ===
* [[bag-of-words]]
+
Si un modèle d'apprentissage automatique pouvait parler, que dirait-il?
* [[one-hot-vector script]]
+
* [[Nous sommes un thermomètre sentimental]]
* [[word embeddings]]
 
  
==== Different views on the data ====
+
== Sources ==
* [[Word embedding Projector]] - ready!
+
Les scripts que nous avons utilisés et une sélection de textes qui nous ont accompagnés.
* [[5 dimensions 32 graphs]]
+
* [[Boîte à outils Algolittéraire]]
* [[The GloVe Reader]] - ready!
+
* [[Bibliographie Algolittéraire]]
 
 
==== Creating word embeddings using word2vec ====
 
* [[Crowd Embeddings]]
 
* [[word2vec_basic.py]]
 
* [[softmax annotated]]
 
* [[Reverse Algebra]]
 
 
 
=== Autonomous machine as inspection ===
 
* [[We Are A Sentiment Thermometer]] - ready!
 
 
 
===Algoliterary Toolkit===
 
* [[Algoliterary Toolkit introduction]]
 
* [[jinja-cgi interface template]]
 
* [[text-punctuation-clean-up.py]]
 
 
 
===Bibliography===
 
* [[Algoliterary Bibliography]]
 

Latest revision as of 15:23, 2 November 2017

Á Propos

Oeuvres Algolittéraires

Une sélection d'oeuvres de membres d'Algolit présentées précédemment dans d'autres contextes.

Explorations Algolittéraires

Ce chapitre présente une partie de la recherche d'Algolit en 2016-2017.

Ce que la machine écrit: mise au point sur la sortie

Deux réseaux neuronaux sont présentés, quels contenus produisent-ils?

Comment la machine lit: dissection des réseaux neuronaux

Ensemble de données

Travailler avec des réseaux neuronaux inclut la collection de grandes quantités de données pour l'entraînement. Voici une comparaison avec la collection des mots de la Bibliothèque de St-Gilles.

Ensembles de données publics

Les ensembles de données publics les plus utilisées sont rassemblés sur Amazon. Nous avons regardé de près les deux jeux suivants:

Ensembles de données Algolittéraires

Travailler avec des textes littéraires comme entrées génère une certaine beauté poétique dans la lecture/l'écriture des algorithmes. Voici une petite collection utilisée pour les expérimentations.

Des mots aux nombres

Comme l'apprentissage automatique est basé sur la statistique et les maths, le texte doit être transformé en nombres afin de pouvoir le travailler. Dans cette section, nous présentons trois techniques de transformation.

Différents portraits du plongement lexical
Inspection de la technique

Comment une machine pourrait parler

Si un modèle d'apprentissage automatique pouvait parler, que dirait-il?

Sources

Les scripts que nous avons utilisés et une sélection de textes qui nous ont accompagnés.