C'est un "analyseur de syntaxe japonaise". Tu peux le faire.
--Analyse de cas
Article précédent pour référence
Vous vous demandez peut-être: "Êtes-vous toujours en train d'analyser?" En fait, il a déjà été montré que le RNN conçu donne la plus grande précision dans la tâche de deviner la note (http://www.slideshare.net/hirokiouchi5/ss-70436298). En fait, le code source est également ouvert au public, donc je pense que c'est correct d'aller ici.
Cependant, [KNP est toujours la cible la plus analysée](http://nlp.ist.i.kyoto-u.ac.jp/nl-resource/corpus/KyotoCorpus4.0/doc/rel_guideline. pdf) et KNP est un outil facile à utiliser car il affiche non seulement une analyse de cas, mais également des informations de syntaxe à partir d'informations morphologiques.
La vitesse d'analyse n'est pas très rapide. ~~ Certaines personnes disent que la vitesse d'analyse de Mecab et Cabocha est tout simplement trop rapide ~~
Je m'en fiche quand il n'y a qu'une petite quantité de données d'entrée, mais à mesure que la quantité de données augmente, j'aimerais en concevoir un peu.
Cependant, je ne veux pas toucher au contenu.
Ensuite, le package présenté dans cet article est une idée simple de __ "Il est normal de décentraliser" __.
Maintenant que vous vous êtes enregistré avec Pypi, vous pouvez l'installer avec pip
.
pip install knp-utils
C'est plus rapide. La différence a tendance à augmenter à mesure que le nombre de documents d'entrée augmente. Les chiffres ci-dessous sont des comparaisons pour 40 documents.
Au fait, pexpect
, ʻeverytimeest un nom de mode qui gère les processus humains et KNP dans le multithreading.
pexpect laisse le processus Human & KNP en cours d'exécution. ʻEverytime
lance Human & KNP pour chaque texte d'entrée.
pexpect mode, finished with :44.13979196548462[sec]
everytime mode, finished with :38.31942701339722[sec]
pyknp, finished with :64.74086809158325[sec]
Comparaison du temps lors de la combinaison Juman ++ & KNP. On dit que Juman ++ (1.02) est "lent, qu'est-ce que c'est?" En effet, le chargement du fichier modèle prend du temps au démarrage du processus.
Donc, si vous laissez le processus en cours d'exécution, il sera plus rapide. C'est une histoire simple.
pexpect mode, finished with :48.096940994262695[sec]
everytime mode, finished with :64.07872700691223[sec]
pyknp, finished with : 602.032340992232452[sec]
Il répète simplement le processus suivant.
Ayez une vie d'analyse syntaxique rapide, facile et amusante!
[^ 1]: 40 Différences entre les documents. Plus vous entrez de documents, plus vite ce sera. [^ 2]: le multiprocessus est plus rapide, mais j'ai eu une erreur et cela n'a pas fonctionné (´ ・ ω ・ `)