您现在的位置是:主页 > news > 西安住房建设局网站首页/中国企业网官方网站
西安住房建设局网站首页/中国企业网官方网站
admin2025/5/1 5:43:09【news】
简介西安住房建设局网站首页,中国企业网官方网站,政府网站集约化建设模式,网站无icp备案爬取网页的标题或者图片,方法可以使用正则,这个并不推荐,因为很多情况下匹配有误。今天来总结一下BeautifulSoup方法爬取网页中的图片。前提条件:1.python3 环境 2.安装requests库 3.安装 beautifulsoup4 (2和3 以管理员方式运行…
爬取网页的标题或者图片,方法可以使用正则,这个并不推荐,因为很多情况下匹配有误。今天来总结一下BeautifulSoup方法爬取网页中的图片。
前提条件:1.python3 环境 2.安装requests库 3.安装 beautifulsoup4 (2和3 以管理员方式运行cmd 用pip指令安装就ok,这里不详细介绍)
我这里将原网址的代码搬了过来,加上了注释
importrequestsfrom bs4 importBeautifulSoup
url= 'http://jandan.net/drawings'header={'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:47.0) Gecko/20100101 Firefox/47.0'}
html= requests.get(url,headers=header).text#BeautifulSoup 对象是基于一个html字符串或者一个文件#使用html.parser解析器 进行解析
soup = BeautifulSoup(html, 'html.parser')#筛选有效的jpg
defvalid_img(src):return src.endswith('jpg') and 'img.jandan.net' insrc#下载图片
defdownload_file(url):#print('Downloading %s' %url)
local_filename = url.split('/')[-1]#print('file_name:', local_filename)
#filename like xxx.jpg
r = requests.get(url, stream=True, headers=header)
with open(local_filename,'wb') as f:for chunk in r.iter_content(chunk_size=1024):ifchunk:
f.write(chunk)#文件方法 将缓冲区文件立即写入文件
f.flush()for img in soup.find_all('img', src=valid_img):
src= img['src']#print('src is',src)
if not src.startswith('http'):
src='http:' +src
download_file(src)
'''我们来探讨r = requests.get(url, stream=True, headers=header)中的stream参数stream=True时,连接connection不会被返回放入到连接池中去除非你读取完requests中所有的数据或者直接调用Requests.close()方法。这必然导致连接的效率很低,当只需要响应的正文部分(或者什么都不需要读取)好消息 - 归功于urllib3,同一会话内的持久连接是完全自动处理的!同一会话内你发出的任何请求都会自动复用恰当的连接!只有所有的响应体数据被读取完毕连接才会被释放为连接池;所以确保将 stream设置为 False 或读取 Response 对象的 content 属性。'''
可以看到 一般做这种爬虫的步骤:
1.打开网页,读取网页的源码
2.分析要爬取的图片的HTML,查找规律,一步步提取图片url
3.根据图片的url将图片保存到指定的位置
结果: 图片被保存到了当前目录中
我们接下来介绍将图片保存到指定位置的另外一种写法
urllib.request.urlretrive(img_url, file_path) 但是有的网站做了防爬,这个函数报403错误
没办法,我们只能添加头部模仿浏览器去访问图片的url,然后获取图片
importrequests, osfrom bs4 importBeautifulSoupimporturllib.requestdefjandan_img(path):
url= 'http://jandan.net/drawings'header={'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:47.0) Gecko/20100101 Firefox/47.0'}
html= requests.get(url,headers=header).text
soup= BeautifulSoup(html, 'html.parser')
img_list= soup.find_all('img', src=valid_img)#创建文件夹
download_file(path)for img inimg_list:
src= img['src']#print(src)
if not src.startswith('http'):
src= 'http:' +src
img_name= src.split('/')[-1]
file_name= path + '\\' +img_name#print(src)
#urllib.request.urlretrieve(src, file_name)
#如果不用头部伪装 返回403
html = requests.get(src, headers=header)#print(html)
with open(file_name, 'wb') as f:
f.write(html.content)#筛选有效的jpg
defvalid_img(src):return src.endswith('jpg') and 'img.jandan.net' insrc#创建文件夹
defdownload_file(path):try:if notos.path.exists(path):
os.mkdir(path)exceptException as msg:print(msg)if __name__ == '__main__':
jandan_img('E:\\image')
-------------------------------------------------------------------------------------------------------------------------------------------------------
下面附一个略复杂的例子如下:
#程序说明:url ='http://bbs.zol.com.cn/dcbbs/d15_108727.html'#程序说明:抓取该url下的所有图片,注意放到文件名称为:帖子标题下的目录中
#coding = 'utf-8'
importurllibimportos, requestsfrom urllib importrequestfrom bs4 importBeautifulSoupdefget_allImage(url):#打开网页
res =requests.get(url)
res.encoding= 'gb18030'
#print(res)
#获取图片
soup = BeautifulSoup(res.text, 'html.parser')#获取标签之间的文字 用作分类的文件夹名字
post_title =soup.title.string#要获取的图片上层的div标签,这个网页有些特殊,它所有的放在一起
post_div = soup.find(attrs={"id": "bookContent"})return post_div.find_all('img'), post_title#print(imgs)
#for img in imgs:
#img_src = img.get('data-original')
#print(img_src)
## return img
#保存图片到指定的路径
defsave_img(url, file_path):
images, folder_name=get_allImage(url)print(folder_name)
file_path= file_path + "\\" +folder_name#文件序号
file_seq = 1
#判断路径是否存在
try:if notos.path.exists(file_path):print('文件夹不存在,重新建立')
os.mkdir(file_path)for img inimages:
img_src= img.get('data-original')#获取文件的后缀名
#print(img_src)
file_suffix = img_src.split('.')[6]#print(file_suffix)
#拼接图片名 目标路径+文件分隔符+图片名+文件后缀
filename = '{}{}{}{}'.format(file_path, os.sep, file_seq, '.%s' %file_suffix)#print(filename)
#下载图片,并保存到文件夹中
urllib.request.urlretrieve(img_src, filename)
file_seq+= 1
exceptException as e:print("文件操作失败", e)if __name__ == "__main__":
save_img("http://bbs.zol.com.cn/dcbbs/d15_108728.html", "E://image")