python爬虫爬取图片并保存到本地(python爬虫爬取图片并保存到本

http://www.itjxue.com  2023-03-28 15:38  来源:未知  点击次数: 

python 怎么把爬到的图片保存下来?

#建立单级目录

filename=r'E:\NASDownload\视频\一行代码爬视频\爬取图片以此

for i in range(0,len(imageinfo)):

path="{}{}{}{}".format(filename,'\\',i,'.jpg')

res=requests.get(url=imageinfo[i]).content

time.sleep(5)

with open(path,'wb') as f:

f.write(res)

f.close()

python 网络爬虫,怎么自动保存图片

def?download_poster_image(movie):???#定义一个下载图片函数

????src?=?movie??#取出它的url

????r?=?requests.get(src)???#去获取这个url

????fname?=?url.split('/')[-1]???#从url里面获取这个文件名

????with?open(fname,?'wb')?as?f:??#应答的内容写进去并且使用二进制

????????f.write(s.content)

????movie['poster-path']?=?fname

res?=?requests.get(url)

img_url?=?res.xpath('//img[@class="q-img-item"]/@src')

movie?=?img_url?

download_poster_image(movie)?#执行函数

python爬虫,抓取一个页面中所有链接内的文字和图片并保存在本地怎么

并不是所有的网站结构都是一样的,你说的功能大体可以用Python实现,但并没有写好的通用代码,还需要根据不同的网页去做调试。

python 如何将大量图片的url保存到本地?

你如果要保存图片的url,直接把imgsrc写入本地文件就可以了,urllib.request.urlretrieve(imgsrc)这个的意思是你要保存的不是图片的url,而是要把图片下载下来,这个是要批量爬取网站上的图片,需要考虑网站的反爬虫措施了。

Python爬取图片保存到本地使用requests和os?

是的,requests获取网络上的数据!

os用于在电脑本地操作文件

如何用Python做爬虫?

在我们日常上网浏览网页的时候,经常会看到一些好看的图片,我们就希望把这些图片保存下载,或者用户用来做桌面壁纸,或者用来做设计的素材。

我们最常规的做法就是通过鼠标右键,选择另存为。但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过截图工具截取下来,但这样就降低图片的清晰度。好吧其实你很厉害的,右键查看页面源代码。

我们可以通过python?来实现这样一个简单的爬虫功能,把我们想要的代码爬取到本地。下面就看看如何使用python来实现这样一个功能。

具体步骤

获取整个页面数据首先我们可以先获取要下载图片的整个页面信息。

getjpg.py

#coding=utf-8import urllibdef getHtml(url):

page = urllib.urlopen(url)

html = page.read() ? ?return html

html = getHtml("")print html

Urllib?模块提供了读取web页面数据的接口,我们可以像读取本地文件一样读取www和ftp上的数据。首先,我们定义了一个getHtml()函数:

urllib.urlopen()方法用于打开一个URL地址。

read()方法用于读取URL上的数据,向getHtml()函数传递一个网址,并把整个页面下载下来。执行程序就会把整个网页打印输出。

2.筛选页面中想要的数据

Python?提供了非常强大的正则表达式,我们需要先要了解一点python?正则表达式的知识才行。

假如我们百度贴吧找到了几张漂亮的壁纸,通过到前段查看工具。找到了图片的地址,如:src=””pic_ext=”jpeg”

修改代码如下:

import reimport urllibdef getHtml(url):

page = urllib.urlopen(url)

html = page.read() ? ?return htmldef getImg(html):

reg = r'src="(.+?\.jpg)" pic_ext'

imgre = re.compile(reg)

imglist = re.findall(imgre,html) ? ?return imglist ? ? ?

html = getHtml("")print getImg(html)

我们又创建了getImg()函数,用于在获取的整个页面中筛选需要的图片连接。re模块主要包含了正则表达式:

re.compile()?可以把正则表达式编译成一个正则表达式对象.

re.findall()?方法读取html?中包含?imgre(正则表达式)的数据。

运行脚本将得到整个页面中包含图片的URL地址。

3.将页面筛选的数据保存到本地

把筛选的图片地址通过for循环遍历并保存到本地,代码如下:

#coding=utf-8import urllibimport redef getHtml(url):

page = urllib.urlopen(url)

html = page.read() ? ?return htmldef getImg(html):

reg = r'src="(.+?\.jpg)" pic_ext'

imgre = re.compile(reg)

imglist = re.findall(imgre,html)

x = 0 ? ?for imgurl in imglist:

urllib.urlretrieve(imgurl,'%s.jpg' % x)

x+=1html = getHtml("")print getImg(html)

这里的核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。

通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。

程序运行完成,将在目录下看到下载到本地的文件。

(责任编辑:IT教学网)

更多

推荐excel文章