百度松果菁英班——机器学习实践五:明星图片爬取

飞桨AI Studio星河社区-人工智能学习与实训社区

🥪图片爬取

import requests
import os
import urllib
​
class GetImage():def __init__(self,keyword='大雁',paginator=1):# self.url: 链接头self.url = 'http://image.baidu.com/search/acjson?'self.headers = {'User-Agent': 'Mozilla/5.0 (Windows NT\10.0; WOW64) AppleWebKit/537.36\(KHTML, like Gecko) Chrome/69.0.\3497.81 Safari/537.36'}self.headers_image = {'User-Agent': 'Mozilla/5.0 (Windows\NT 10.0; WOW64) AppleWebKit/537.36 \(KHTML, like Gecko) Chrome/69.0.\3497.81 Safari/537.36','Referer': 'http://image.baidu.com/\search/index?tn=baiduimage&ipn=r&\ct=201326592&cl=2&lm=-1&st=-1&\fm=result&fr=&sf=1&fmq=1557124645631_R&\pv=&ic=&nc=1&z=&hd=1&latest=0&copyright\=0&se=1&showtab=0&fb=0&width=&height=\&face=0&istype=2&ie=utf-8&sid=&word=%\E8%83%A1%E6%AD%8C'}self.keyword = keyword      # 定义关键词self.paginator = paginator  # 定义要爬取的页数
​def get_param(self):# 将中文关键词转换为符合规则的编码keyword = urllib.parse.quote(self.keyword)params = []# 为爬取的每页链接定制参数for i in range(1, self.paginator + 1):params.append('tn=resultjson_com&ipn=rj&ct=201326592&is=&\fp=result&queryWord={}&cl=2&lm=-1&ie=utf-8&o\e=utf-8&adpicid=&st=-1&z=&ic=&hd=1&latest=0&\copyright=0&word={}&s=&se=&tab=&width=&height\=&face=0&istype=2&qc=&nc=1&fr=&expermode=&for\ce=&cg=star&pn={}&rn=30&gsm=78&1557125391211\='.format(keyword, keyword, 30 * i))return params   # 返回链接参数
​def get_urls(self, params):urls = []for param in params:# 拼接每页的链接urls.append(self.url + param)return urls   # 返回每页链接
​def get_image_url(self, urls):image_url = []for url in urls:json_data = requests.get(url, headers=self.headers).json()json_data = json_data.get('data')for i in json_data:if i:image_url.append(i.get('thumbURL'))return image_url
​def get_image(self, image_url):"""根据图片url,在本地目录下新建一个以搜索关键字命名的文件夹,然后将每一个图片存入。:param image_url::return:"""cwd = os.getcwd()file_name = os.path.join(cwd, self.keyword)if not os.path.exists(self.keyword):os.mkdir(file_name)for index, url in enumerate(image_url, start=1):with open(file_name+'/{}_0.jpg'.format(index), 'wb') as f:f.write(requests.get(url, headers=self.headers_image).content)if index != 0 and index % 30 == 0:print('第{}页下载完成'.format(index/30))
​def __call__(self, *args, **kwargs):params = self.get_param()  # 获取链接参数urls = self.get_urls(params)image_url = self.get_image_url(urls)self.get_image(image_url)
​
if __name__ == '__main__':spider = GetImage('明星', 3)spider()
# spider = GetImage('雕', 3)# spider()
  • 初始化方法 __init__

    • 设置了爬取图片的默认关键词为"大雁",默认页数为1

    • 定义了百度图片搜索的请求头信息,其中包括了 User-Agent 和 Referer

  • get_param 方法

    • 将关键词转换为 URL 编码格式

    • 构建每一页图片搜索结果的链接参数

  • get_urls 方法

    • 根据参数列表构建每一页图片搜索结果的完整链接

  • get_image_url 方法

    • 发送请求获取每一页的图片链接

    • 解析 JSON 数据,提取每张图片的缩略图链

  • get_image 方法

    • 创建以搜索关键字命名的文件夹

    • 下载图片并保存到本地文件夹中

  • __call__ 方法

    • 调用上述方法实现图片下载功能

🥪图片爬取+图片保存

# 首先我们要导入相关的包
# request:提供爬虫相关的接口函数
# json:主要负责处理字典类型数据在字符串与字典之间进行转换
import requests
import json
import os
​
​
# 直接使用程序爬取网络数据会被网站识别出来,然后封禁该IP,导致数据爬
# 取中断,所以我们需要首先将程序访问页面伪装成浏览器访问页面
# User-Agent:定义一个真实浏览器的代理名称,表明自己的身份(是哪种浏览器),本demo为谷歌浏览器
# Accept:告诉WEB服务器自己接受什么介质类型,*/* 表示任何类型
# Referer:浏览器向WEB服务器表明自己是从哪个网页URL获得点击当前请求中的网址/URL
# Connection:表示是否需要持久连接
# Accept-Language:浏览器申明自己接收的语言
# Accept-Encoding:浏览器申明自己接收的编码方法,通常指定压缩方法,是
# 否支持压缩,支持什么压缩方法(gzip,deflate)
def getPicinfo(url):headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.129 Safari/537.36","Accept": "*/*","Referer": "https://www.baidu.com/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=1&tn=baidu&wd=%E4%B8%AD%E5%9B%BD%E8%89%BA%E4%BA%BA&fenlei=256&rsv_pq=cf6f24c500067b9f&rsv_t=c2e724FZlGF9fJYeo9ZV1I0edbhV0Z04aYY%2Fn6U7qaUoH%2B0WbUiKdOr8JO4&rqlang=cn&rsv_dl=ib&rsv_enter=1&rsv_sug3=15&rsv_sug1=6&rsv_sug7=101","Host": "sp0.baidu.com","Connection": "keep-alive","Accept-Language": "en-US,en;q=0.9,zh-CN;q=0.8,zh;q=0.7,zh-TW;q=0.6","Accept-Encoding": "gzip, deflate"}# 根据url,使用get()方法获取页面内容,返回相应response = requests.get(url,headers)  # 成功访问了页面if response.status_code == 200:return response.text# 没有成功访问页面,返回Nonereturn None
​
#图片存放地址
Download_dir='picture'
if os.path.exists(Download_dir)==False:os.mkdir(Download_dir)
​
pn_num=1  #  爬取多少页
rn_num=10  #  每页多少个图片
​
for k in range(pn_num):  # for循环,每次爬取一页url="https://sp0.baidu.com/8aQDcjqpAAV3otqbppnN2DJv/api.php?resource_id=28266&from_mid=1&&format=json&ie=utf-8&oe=utf-8&query=%E4%B8%AD%E5%9B%BD%E8%89%BA%E4%BA%BA&sort_key=&sort_type=1&stat0=&stat1=&stat2=&stat3=&pn="+str(k)+"&rn="+str(rn_num)+"&_=1613785351574"res = getPicinfo(url)       # 调用函数,获取每一页内容json_str=json.loads(res)    # 将获取的文本格式转化为字典格式figs=json_str['data'][0]['result']  for i in figs:              # for循环读取每一张图片的名字name=i['ename']img_url=i['pic_4n_78']  # img_url:图片地址img_res=requests.get(img_url)  # 读取图片所在页面内容if img_res.status_code==200: ext_str_splits=img_res.headers['Content-Type'].split('/')ext=ext_str_splits[-1]  # 索引-1指向列表倒数第一个元素fname=name+"."+ext# 保存图片open(os.path.join(Download_dir,fname),  'wb' ).write(img_res.content)print(name,img_url,"saved")
  • 首先定义了一个函数getPicinfo(url),用于获取指定URL页面的内容。在请求头部添加了一些信息以伪装成浏览器访问页面,避免被网站封禁IP。通过requests.get(url, headers)方法发送GET请求,并返回响应的文本内容

  • 创建一个目录Download_dir用于存放下载的图片。如果目录不存在,则创建目录

  • 设置要爬取的页数pn_num和每页的图片数量rn_num

  • 使用for循环爬取每一页的图片。构造相应的URL,并调用getPicinfo(url)函数获取每一页的内容

  • 将获取的文本内容转化为字典格式json_str=json.loads(res)

  • 提取每张图片的名称和地址,并使用requests.get(img_url)方法获取图片所在页面的内容

  • 如果成功获取到图片内容(状态码为200),则通过open()函数将图片保存到指定的目录中

  • 打印图片的名称、地址和保存成功的提示信息

🥗有问题我们评论区见~

⭐点赞收藏不迷路~

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/601789.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Win10下VirtualBox启动任何一个虚拟机马上出现蓝屏死机(终止代码:SYSTEM_SERVICE_EXCEPTION)

环境: Win10专业版 VirtualBox5.1.28 问题描述: Win10下VirtualBox启动任何一个虚拟机马上出现蓝屏死机(终止代码:SYSTEM_SERVICE_EXCEPTION),之前都一直没问题 检查下面功能是否开启 已启用 Credential Guard/Device Guard。 已启用 Windows 沙箱 已启用虚拟机平台…

【学习一】液压伺服与比例控制系统介绍

【学习一】液压伺服与比例控制系统介绍 需要具备的前期知识:自动控制、计算机控制系统等 文章目录 【学习一】液压伺服与比例控制系统介绍一、液压伺服与比例控制系统的组成二、液压伺服与比例控制系统的分类1.按系统输入信号的变化规律分类2.按被控物理量的名称分类…

SpringBoot学习笔记二

SpringBoot学习笔记二 1.SpringBoot配置加载顺序1.1 内部配置加载顺序1.2 外部配置加载顺序 2. SpringBoot整合其他框架2.1 SpringBoot整合Test2.2 SpringBoot整合Redis 1.SpringBoot配置加载顺序 1.1 内部配置加载顺序 同理可知,父项目中的confg下的配置优先级最…

图书馆自助借书机怎么借书

图书馆自助借书机借书流程如下: 1. 找到图书馆自助借书机,在机器上选择借书功能。 2. 输入自己的借书卡号或者身份证号码,如果是第一次借书,可能需要进行注册。 3. 输入图书的条形码号码,可以通过扫描条形码或者手动输…

ICLR24_OUT-OF-DISTRIBUTION DETECTION WITH NEGATIVE PROMPTS

摘要 分布外检测(OOD Detection)的研究对于开放世界(open-world)学习非常重要。受大模型(CLIP)启发,部分工作匹配图像特征和提示来实现文本-图像特征之间的相似性。 现有工作难以处理具有与已…

【LeetCode: 572. 另一棵树的子树 + 二叉树 + dfs】

🚀 算法题 🚀 🌲 算法刷题专栏 | 面试必备算法 | 面试高频算法 🍀 🌲 越难的东西,越要努力坚持,因为它具有很高的价值,算法就是这样✨ 🌲 作者简介:硕风和炜,…

蚂蚁摩斯总经理李怀勇:以隐私计算为基建构建全域智能体系

艾瑞咨询最新发布《2024年中国金融科技(FinTech)行业发展洞察报告》,蚂蚁摩斯入选“金融科技卓越厂商”。评测模型主要包括服务厂商的行业深耕程度、产品与技术能力、服务能力及生态能力四个核心维度,最终评测结果的产出来自于对以…

下载python电子书

下面展示一些 内联代码片。 import requests from lxml import etree from urllib import parse from pprint import pprint from tqdm import tqdm class PythonBook: def init(self): self.url“https://m.jb51.net/books/list476_1.html” self.url_page“https://m.jb51.n…

【机器学习300问】62、若想将逻辑回归用于多分类有哪些常见做法?

逻辑回归算法在设计之初是用于二分类问题的,但若想把它用在多分类上也不是不行,这得看你具体面临的多分类问题是什么样的(问题的定义)。不同的问题就有不同的应对之策: 一、一对一 (1)方法的原…

【三维重建工具】NeRFStudio、3D GaussianSplatting、Colmap安装与使用指南(更新中)

目录 一、NeRFStudio安装1.安装(ubuntu系统)2.安装(windows系统) 二、安装tinycudann三、Colmap安装与使用1. 安装依赖2. 安装colmap3.使用colmap3.1 可视化界面使用3.2 Nerfstudio命令行调用Colmap 四、使用NeRFStudio进行三维重…

6 CUDA内存处理(1)

6.1 简介 在传统的CPU模型中,内存是线性内存或平面内存,单个CPU核可以无约束地访问任何地址的内存。在CPU的硬件实际实现中,有许多一级(L1)、二级(L2)以及三级(L3)缓存。那些善于对CPU代码进行优化以及有高性能计算(High-Performance Comput…

MacOS - 程序坞,但图标消失不见了 但是还能用

如图 强迫症难受死 重启什么的都尝试了。不好使! 差点重装系统。 经验证 改名字可以修复。 但是系统的比如启动台 也显示不出来 全网好使的方案 在“应用程序”中打开“终端” 输入命令如下:(注意:需要 sudo 权限&#xff0…