Bonjour, c'est sunfish. L'analyse de données à l'aide de Python est devenue populaire ces jours-ci, mais elle est difficile à maîtriser. L'objectif est de lutter avec Python, et l'amélioration commerciale que je souhaitais à l'origine est ici. .. .. Je voudrais présenter un exemple d'analyse de données à l'aide de l'outil graphique "nehan" pour résoudre de tels problèmes.
Plus de six mois se sont écoulés depuis que le virus corona est devenu un problème social. Suivons le nombre d'occurrences de ce mot à partir des données du tweet des deux derniers mois.
nehan peut importer directement des données Twitter, et cette fois j'ai utilisé cette fonction. Je le présenterai plus tard. Tous les jours à partir du 27 juillet 2020 ** 3000 tweets, y compris "Corona" dans le texte du tweet, seront accumulés et des données pour environ 2 mois seront préparées. Cliquez ici pour plus de détails sur les données (https://sunfish.nehan.io/datasources_v2/3424)
port_2 = port_1[['Created_At', 'Text']]
port_3 = port_2.copy()
port_3['Created_At'] = pd.to_datetime(
port_3['Created_At'], errors='coerce', foramt=None)
port_3['Created_At'] = port_3['Created_At'].map(lambda x: x.date())
port_4 = port_3.copy()
port_4 = port_4.dropna(subset=None, how='any')
port_5 = port_4[(port_4['Text'].str.contains('grappe', na=False, regex=False))]
port_9 = port_5.copy()
port_9 = port_9.groupby(['Created_At']).agg(
{'Created_At': ['size']}).reset_index()
port_9.columns = ['Created_At', 'Nombre de lignes']
Le mot «grappe» est largement reconnu comme un symbole d'infection explosive. La raison pour laquelle il a volé le 8/9 est probablement due au [Festival du cluster] tenu à Shibuya (https://news.yahoo.co.jp/articles/76e47dc2ce6608e018fe37bc92be296e381f76fa?page=1).
J'ai aussi regardé ce mot, ce qui m'a rendu nostalgique.
Un nouveau style de vie prend racine, mais il semble que l'humeur de la retenue ne soit pas complètement terminée. On dirait qu'il diminue progressivement.
Afin d'obtenir des résultats précis, je dois vraiment faire plus de prétraitement, mais j'ai essayé de traiter les données simplement pour une observation grossière et une introduction de nehan. Le code source ci-dessus est une copie du code produit par la [fonction d'exportation python] de nehan (https://prtimes.jp/main/html/rd/p/000000004.000044237.html).
Recommended Posts