J'ai essayé de gratter

Ravi de vous rencontrer C'est Nagamasa Yamada. J'ai essayé de créer un programme pour rechercher des mots en utilisant un gratteur Je l'ai fait avec google cola boratory https://colab.research.google.com/notebooks/welcome.ipynb?hl=ja

Objectif

Créez un programme qui utilise python pour rechercher la signification des mots

Comment ça marche

entrée ➡ Obtenir des informations dans le dictionnaire en ligne avec grattage ➡ Affichage

Dictionnaire en ligne à utiliser

1C5E273B-9F1A-4C57-9270-162562B6628E.png

programme

python


from bs4 import BeautifulSoup
import urllib
import urllib.parse
#Uenoha est celui qui encode le japonais
g=input()
m= urllib.parse.quote(g)
url =f'https://dictionary.goo.ne.jp/srch/all/{m}/m0u/'
headers = {
          "User-Agent": "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:47.0) Gecko/20100101 Firefox/47.0",
          }
request = urllib.request.Request(url, headers=headers)
html = urllib.request.urlopen(request)
soup = BeautifulSoup(html, 'html.parser')
a = soup.select('div[class="example_sentence"] ul[class="content_list idiom lsize"] p[class="text"]')
for x in a:
  print(x.text)

python


from bs4 import BeautifulSoup
import urllib

C'est celui que tu dois gratter

python


import urllib.parse

C'est celui dont vous avez besoin pour encoder

python


g=input()
m= urllib.parse.quote(g)

Cela encode ce que vous entrez. J'ai oublié ici et ça n'a pas marché

python


url =f'https://dictionary.goo.ne.jp/srch/all/{m}/m0u/'
headers = {
          "User-Agent": "Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:47.0) Gecko/20100101 Firefox/47.0",
          }
request = urllib.request.Request(url, headers=headers)
html = urllib.request.urlopen(request)
soup = BeautifulSoup(html, 'html.parser')
a = soup.select('div[class="example_sentence"] ul[class="content_list idiom lsize"] p[class="text"]')
for x in a:
  print(x.text)

L'url du dictionnaire en ligne est à la place de l'url Le mot que vous souhaitez rechercher est en {m}

python


a = soup.select('div[class="example_sentence"] ul[class="content_list idiom lsize"] p[class="text"]')

Cela identifie le lieu que vous souhaitez connaître.

python


for x in a:
  print(x.text)

Maintenant je prends tout dans un (la fin) Cela peut être difficile à comprendre car c'était la première fois que j'écrivais, mais merci d'avoir lu.

Recommended Posts

J'ai essayé de gratter
J'ai essayé de gratter avec Python
J'ai essayé de gratter avec du python
J'ai essayé PyQ
J'ai essayé webScraping avec python.
J'ai essayé AutoKeras
J'ai essayé le moulin à papier
J'ai essayé django-slack
J'ai essayé Django
J'ai essayé spleeter
J'ai essayé cgo
J'ai essayé de récupérer les données de conversation d'ASKfm
J'ai essayé de gratter la météo Yahoo (édition Python)
J'ai essayé d'utiliser argparse
J'ai essayé d'utiliser anytree
J'ai essayé d'utiliser aiomysql
J'ai essayé d'utiliser Summpy
J'ai essayé Python> autopep8
J'ai essayé d'utiliser coturn
J'ai essayé d'utiliser Pipenv
J'ai essayé d'utiliser matplotlib
J'ai essayé d'utiliser "Anvil".
J'ai essayé d'utiliser Hubot
J'ai essayé d'utiliser ESPCN
J'ai essayé PyCaret2.0 (pycaret-nightly)
J'ai essayé d'utiliser openpyxl
J'ai essayé le deep learning
J'ai essayé AWS CDK!
J'ai essayé d'utiliser Ipython
J'ai essayé de déboguer.
J'ai essayé d'utiliser PyCaret
J'ai essayé d'utiliser cron
J'ai essayé la mapview de Kivy
J'ai essayé d'utiliser ngrok
J'ai essayé d'utiliser face_recognition
J'ai essayé d'utiliser Jupyter
J'ai essayé de déplacer EfficientDet
J'ai essayé la programmation shell
J'ai essayé d'utiliser doctest
J'ai essayé Python> décorateur
J'ai essayé d'exécuter TensorFlow
J'ai essayé Auto Gluon
J'ai essayé d'utiliser du folium
J'ai essayé d'utiliser jinja2
J'ai essayé AWS Iot
J'ai essayé l'optimisation bayésienne!
J'ai essayé d'utiliser du folium
J'ai essayé d'utiliser la fenêtre de temps
J'ai essayé Web Scraping pour analyser les paroles.
J'ai essayé le web scraping en utilisant python et sélénium
J'ai essayé d'obtenir une image en grattant
J'ai essayé les réseaux d'itération de valeur
J'ai essayé fp-growth avec python
J'ai essayé la classification d'image d'AutoGluon
J'ai essayé Learning-to-Rank avec Elasticsearch!
[J'ai essayé d'utiliser Pythonista 3] Introduction