Python - Tokenisation

En Python, la tokenisation se réfère essentiellement à la division d'un plus grand corps de texte en lignes, mots plus petits ou même à la création de mots pour une langue non anglaise. Les diverses fonctions de tokenisation intégrées dans le module nltk lui-même et peuvent être utilisées dans les programmes comme indiqué ci-dessous.

Tokenisation de ligne

Dans l'exemple ci-dessous, nous divisons un texte donné en différentes lignes en utilisant la fonction sent_tokenize.

import nltk
sentence_data = "The First sentence is about Python. The Second: about Django. You can learn Python,Django and Data Ananlysis here. "
nltk_tokens = nltk.sent_tokenize(sentence_data)
print (nltk_tokens)

Lorsque nous exécutons le programme ci-dessus, nous obtenons la sortie suivante -

['The First sentence is about Python.', 'The Second: about Django.', 'You can learn Python,Django and Data Ananlysis here.']

Tokenisation non anglaise

Dans l'exemple ci-dessous, nous tokenisons le texte allemand.

import nltk
german_tokenizer = nltk.data.load('tokenizers/punkt/german.pickle')
german_tokens=german_tokenizer.tokenize('Wie geht es Ihnen?  Gut, danke.')
print(german_tokens)

Lorsque nous exécutons le programme ci-dessus, nous obtenons la sortie suivante -

['Wie geht es Ihnen?', 'Gut, danke.']

Tokenzitaion de mots

Nous tokenisons les mots en utilisant la fonction word_tokenize disponible dans le cadre de nltk.

import nltk
word_data = "It originated from the idea that there are readers who prefer learning new skills from the comforts of their drawing rooms"
nltk_tokens = nltk.word_tokenize(word_data)
print (nltk_tokens)

Lorsque nous exécutons le programme ci-dessus, nous obtenons la sortie suivante -

['It', 'originated', 'from', 'the', 'idea', 'that', 'there', 'are', 'readers', 
'who', 'prefer', 'learning', 'new', 'skills', 'from', 'the',
'comforts', 'of', 'their', 'drawing', 'rooms']