您现在的位置是:主页 > news > 广州市网站建设制作设计平台/新闻投稿平台

广州市网站建设制作设计平台/新闻投稿平台

admin2025/5/20 13:10:16news

简介广州市网站建设制作设计平台,新闻投稿平台,一个服务器下怎么做两个网站吗,建站前期准备因为需要从一些下载一个页PDF文件。但是需要下载PDF有数百个文件,这是不可能用人工点击下载。只是Python有相关模块,所以写一个程序PDF文件下载,顺便熟悉Python的urllib模块和ulrllib2模块。1、问题描写叙述 须要从http://www.cvpapers.com/c…

广州市网站建设制作设计平台,新闻投稿平台,一个服务器下怎么做两个网站吗,建站前期准备因为需要从一些下载一个页PDF文件。但是需要下载PDF有数百个文件,这是不可能用人工点击下载。只是Python有相关模块,所以写一个程序PDF文件下载,顺便熟悉Python的urllib模块和ulrllib2模块。1、问题描写叙述 须要从http://www.cvpapers.com/c…

      因为需要从一些下载一个页PDF文件。但是需要下载PDF有数百个文件,这是不可能用人工点击下载。只是Python有相关模块,所以写一个程序PDF文件下载,顺便熟悉Python的urllib模块和ulrllib2模块。


1、问题描写叙述

须要从http://www.cvpapers.com/cvpr2014.html上下载几百个论文的PDF文件,该网页例如以下图所看到的:



2、问题解决

通过结合Python的urllib模块和urllib2模块来实现自己主动下载。

代码例如以下:

test.py

#!/usr/bin/python
# -*- coding:utf-8 -*-import urllib                                                     #导入urllib模块
import urllib2                                                    #导入urllib2模块
import re                                                         #导入正則表達式模块:re模块def getPDFFromNet(inputURL):req = urllib2.Request(inputURL)f = urllib2.urlopen(req)                                  #打开网页localDir = 'E:\downloadPDF\\'                             #下载PDF文件须要存储在本地的文件夹urlList = []                                              #用来存储提取的PDF下载的url的列表for eachLine in f:                                        #遍历网页的每一行line = eachLine.strip()                           #去除行首位的空格。习惯性写法if re.match('.*PDF.*', line):                     #去匹配含有“PDF”字符串的行。仅仅有这些行才有PDF下载地址wordList = line.split('\"')               #以"为分界。将该行分开,这样就将url地址单独分开了for word in wordList:                     #遍历每一个字符串if re.match('.*\.pdf$', word):    #去匹配含有“.pdf”的字符串,仅仅有url中才有urlList.append(word)      #将提取的url存入列表for everyURL in urlList:                                  #遍历列表的每一项,即每一个PDF的urlwordItems = everyURL.split('/')                   #将url以/为界进行划分。为了提取该PDF文件名称for item in wordItems:                            #遍历每一个字符串if re.match('.*\.pdf$', item):            #查找PDF的文件名称PDFName = item                    #查找到PDF文件名称localPDF = localDir + PDFName                     #将本地存储文件夹和须要提取的PDF文件名称进行连接try:                                             urllib.urlretrieve(everyURL, localPDF)    #依照url进行下载。并以其文件名称存储到本地文件夹except Exception,e:continuegetPDFFromNet('http://www.cvpapers.com/cvpr2014.html')

注意:

(1)第1、6、8、23行分别多谢了一个“\”来进行转义。

(2)第27行的urlretrieve函数有3个參数:第一个參数就是目标url;第二个參数是保存的文件绝对路径(含文件名称),该函数的返回值是一个tuple(filename,header),当中的filename就是第二个參数filename。

假设urlretrieve仅提供1个參数,返回值的filename就是产生的暂时文件名称,函数运行完成后该暂时文件会被删除參数。第3个參数是一个回调函数,当连接上server、以及对应的数据块传输完成的时候会触发该回调。当中回调函数名称可随意,可是參数必须为三个。一般直接使用reporthook(block_read,block_size,total_size)定义回调函数。block_size是每次读取的数据块的大小。block_read是每次读取的数据块个数,taotal_size是一一共读取的数据量,单位是byte。

能够使用reporthook函数来显示读取进度。

假设想显示读取进度。则能够讲第三个參数加上。将上述程序第27行改为例如以下:

urllib.urlretrieve(everyURL, localPDF, reporthook=reporthook)

而reporthook回调函数的代码例如以下:

def reporthook(block_read,block_size,total_size):if not block_read:print "connection opened";returnif total_size<0:#unknown sizeprint "read %d blocks (%dbytes)" %(block_read,block_read*block_size);else:amount_read=block_read*block_size;print 'Read %d blocks,or %d/%d' %(block_read,block_read*block_size,total_size);

综上所述。这就是一个简单的从网页抓取数据、下载文件的小程序。希望对正在学习Python的同学有帮助。谢谢!





转载于:https://www.cnblogs.com/mengfanrong/p/5012973.html