μν€νΌλμ μ΅μ νμ κΈ°μ¬ ν¬λ‘€λ§
BeautifulSoup
μ find_all
λ©μλλ₯Ό μ νμ©ν΄ μν€νΌλμμ μμ¦ νμ μμ μ£Όμ μ΄λ²€νΈλ₯Ό ν¬λ‘€λ§ ν΄λ³΄κ² μ΅λλ€.
μμ μ½λ μ€λͺ
import requests from bs4 import BeautifulSoup def crawl_wikipedia_current_events_first_10_titles(): url = "https://ko.wikipedia.org/wiki/μν€λ°±κ³Ό:μμ¦_νμ " response = requests.get(url) if response.status_code != 200: print("μλ΅ μ€ν¨", response.status_code) return None soup = BeautifulSoup(response.content, "html.parser") # μμ¦ νμ μΉμ μ λ΄μ©μ λ΄κ³ μλ div νκ·Έλ₯Ό μ°Ύμ current_events_section = soup.find("div", {"id": "mw-content-text"}) # div νκ·Έ λ΄λΆμ λͺ¨λ li νκ·Έλ₯Ό μ°Ύμ list_items = current_events_section.find_all("li") if current_events_section else [] # li νκ·Έ λ΄λΆμ ν μ€νΈλ₯Ό μΆμΆνμ¬ λ¦¬μ€νΈμ μ μ₯ titles = [item.get_text(strip=True) for item in list_items[:10]] return titles
-
μΉ νμ΄μ§ μμ²
:requests.get(url)
μ ν΅ν΄ νΉμ URLμ λ΄μ©μ μμ²ν©λλ€. -
μλ΅ μν νμΈ
:response.status_code
λ₯Ό κ²μ¬νμ¬ μμ²μ΄ μ±κ³΅μ μΌλ‘ μ΄λ£¨μ΄μ‘λμ§ νμΈν©λλ€. -
BeautifulSoup κ°μ²΄ μμ± λ° λ°μ΄ν° νμ±
:BeautifulSoup(response.content, "html.parser")
μ μ¬μ©νμ¬ HTML λ΄μ©μ νμ±ν©λλ€. -
νΉμ μΉμ μμ λ°μ΄ν° μΆμΆ
: μΉ νμ΄μ§ λ΄ νΉμ μΉμ (μ: 'μμ¦ νμ ')μ λͺ¨λli
νκ·Έλ₯Ό μ°Ύκ³ , μ΄ μ€ μ²μ 10κ°μ νλͺ©μ μΆμΆν©λλ€.
μ€μ΅ κ³Όμ
-
μ μ½λλ₯Ό μ¬μ©νμ¬ μν€νΌλμ 'μμ¦ νμ ' μΉμ μ μ΅μ μ΄λ²€νΈ μ λͺ©λ€μ μΆμΆν΄λ³΄μΈμ.
-
λ€μν μΉ νμ΄μ§μ μΉμ μ νκ²μΌλ‘ μ€μ νμ¬ λ°μ΄ν° μΆμΆ κΈ°λ²μ μ°μ΅ν΄λ³΄μΈμ.
Guidelines
AI Tutor
Publish
Design
Upload
Notes
Favorites
Help
Code Editor
Execution Result