본문 바로가기 메뉴 바로가기

Python World

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

Python World

검색하기 폼
  • 분류 전체보기 (51)
    • Basic (7)
    • Standard Library (4)
      • built-in functions (1)
    • OOP (1)
    • Web Crawling (2)
    • Test Driven Development (6)
    • Django (20)
    • Microservices (2)
    • Vue.js (1)
    • 구매후기 (1)
  • 방명록

Web Crawling (2)
Scrapy 구조 알아보기

Scrapy를 잘 사용하기 위해 구조와 작동 순서를 아는것이 필요. Components Scrapy는 아래와 같은 component들로 구성되어 있다. Scrapy Engine 각 component들에 데이터(Request, Response, Item)를 전달(Controller)하고 액션이 발생 했을 때 이벤트를 발생시키는 역활을 함. Scheduler 엔진으로 부터 Request을 전달 받고 이 Request을 queue에 추가한 후 나중에 엔진이 Request를 요청할 때 다시 엔진에 전달. Downloader Request에 포함된 URL에서 웹 페이지를 가져와서 Response 오브젝트를 만들어 엔진에게 전달하는 역활을 한다. 엔진은 전달 받은 이 웹 페이지를 다시 스파이더에게 전달. Spide..

Web Crawling 2020. 5. 17. 19:38
Scrapy 간단 사용법

설치 $ pip install scrapy 프로젝트 생성 $ scrapy startproject project_name 아래와 같이 디렉토리와 파일들이 생성됨 $ tree project_name project_name ├── scrapy.cfg └── project_name ├── __init__.py ├── items.py ├── middlewares.py ├── pipelines.py ├── settings.py └── spiders └── __init__.py 간단 spider 생성 Spiders 디렉토리 안에 파이썬 파일 생성 $ cd project_name/project_name/spiders $ touch example.py scrapy.Spider를 상속하는 클래스를 생성 # example...

Web Crawling 2020. 5. 10. 23:25
이전 1 다음
이전 다음
최근에 올라온 글
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바