파이썬 urllib 파일 다운로드

urllib 라이브러리는 파이썬의 표준 라이브러리이므로 설치할 필요가 없습니다. 라이브러리 참조의 표준 라이브러리 모듈 urllib의 문서화; HTTP 1.1 RFC(http://www.ietf.org/rfc/rfc2616.txt)를 참조하십시오. 청크가 다운로드 될 때 Python 셸은 다음과 같이 보입니다 : 이제 웹에서 파일을 다운로드하는 코루틴을 사용하여 코드를 만들어 보겠습니다:이 코드에서는 프록시 개체를 만들고 urllib의 build_opener 메서드를 호출하여 프록시를 열고 프록시 개체를 전달했습니다. 그런 다음 페이지를 검색하도록 요청했습니다. 이것은 매우 간단한 작업이므로 각 라이브러리와 동일한 파일을 다운로드하고 결과를 약간 다르게 지정하는 빠르고 더러운 스크립트를 표시합니다. 예제 스크립트에 대 한이 블로그에서 지퍼 파일을 다운로드 합니다. 살펴 보겠습니다: 우리는 웹 페이지를 가져오고 urllib3를 사용 하 여 텍스트 파일에 저장 됩니다. urllib.request는 다양한 프로토콜을 사용하여 URL을 가져올 수있는 urlopen 함수의 형태로 매우 간단한 인터페이스를 제공합니다. 또한 기본 인증, 쿠키, 프록시 예시 c를 처리하기위한 약간 더 복잡한 인터페이스를 제공합니다. 내 독자 중 한 명이 지적했듯이, 2to3.py 통해 실행하면 urllib 물건이 상당히 변경되어 파이썬 3 형식으로 됩니다. 그래서 완전성을 위해, 여기에 코드가 지금 처럼 보이는: 한 번에 여러 파일을 다운로드 하려면, 다음 모듈을 가져오기: urllib2 더 이상 존재 하지 않습니다 그리고 urllib.urlretrieve 및 urllib2.urlopen 각각 urllib.request.urlretrieve 및 urllib.request.urlopen로 변경 된 것을 알 수 있습니다.

나머지는 동일합니다. 간결을 위해 요청 부분을 제거했습니다. urlopen() 함수는 인증이 필요하지 않은 프록시에서 투명하게 작동합니다. 유닉스 또는 Windows 환경에서 http_proxy 또는 ftp_proxy 환경 변수를 Python 인터프리터를 시작하기 전에 프록시 서버를 식별하는 URL로 설정합니다. 예를 들어(`%`는 명령 프롬프트): 이전 섹션에서와 마찬가지로 requests.get에 URL을 전달합니다. 마지막으로 파일(URL에 지정된 경로)을 열고 페이지의 내용을 작성합니다. 훨씬 더 보인다, 듣고 주셔서 감사합니다. 거의 독점적으로 비동기 와 HTTP를 다루는 사람으로, 나는 일반적으로 온라인 비동기 문서 및 예제 코드의 품질이 좋지 않은 좌절.

공식 파이썬 문서는 일반 사람들에게 매우 나쁘기 때문에 왜 일이 그렇게 하는지 이해할 수 있습니다.