数据采集与融合第四次作业

news/2024/11/18 16:04:35/文章来源:https://www.cnblogs.com/--xxxx-----/p/18551070
码云仓库地址 https://gitee.com/sun-jiahui22/crawl_project
作业1仓库地址 https://gitee.com/sun-jiahui22/crawl_project/tree/master/作业4/实验4.1
作业2的仓库地址 https://gitee.com/sun-jiahui22/crawl_project/tree/master/作业4/实验4.2
作业3的仓库地址 https://gitee.com/sun-jiahui22/crawl_project/tree/master/作业4/实验4.3
学号姓名 102202115 孙佳会

作业①

要求
熟练掌握 Selenium 查找HTML元素、爬取Ajax网页数据、等待HTML元素等内容。
使用Selenium框架+ MySQL数据库存储技术路线爬取“沪深A股”、“上证A股”、“深证A股”3个板块的股票数据信息。

候选网站
东方财富网:http://quote.eastmoney.com/center/gridlist.html#hs_a_board
输出信息:

MYSQL数据库存储和输出格式如下,表头应是英文命名例如:序号id,股票代码:bStockNo……,由同学们自行定义设计表头:

股票代码 股票名称 最新报价 涨跌幅 涨跌额 成交量 成交额 振幅 最高 最低 今开 昨收
301522 N上大 79.85 1060.61 72.97 595675 5031370784.78 582.56 102.00 61.92 61.92 6.88

爬取股票

🌱实现思路

1.初始化 WebDriver

设置Selenium WebDriver,选择Chrome WebDriver,并配置必要的选项,如无头模式,以在后台运行浏览器。

2.导航到目标网页

通过WebDriver访问东方财富网的特定板块URL,这个URL是带有股票数据的网页。

3.等待页面加载

使用WebDriverWait等待页面的特定元素加载完成,确保页面数据已完全加载,特别是对于动态加载的内容。

4.爬取数据

利用Selenium的元素选择功能,定位股票数据表格,根据HTML结构抓取所需的股票信息,例如股票代码、名称、最新价格、涨跌幅等。

5.数据存储

将抓取到的数据存储到MySQL数据库中,同时处理可能的数据更新和异常。

6.循环访问

需要从多个板块抓取数据,所以设置一个循环,遍历各个板块的URL,重复执行上述爬取和存储数据的过程。

🎨主要代码

1.启动 MySQL 数据库,使用以下语句创建一个数据库和数据表

CREATE DATABASE IF NOT EXISTS stock_data;USE stock_data;CREATE TABLE IF NOT EXISTS stocks (id INT AUTO_INCREMENT PRIMARY KEY,                -- 自增主键bStockNo VARCHAR(20) NOT NULL,                   -- 股票代码bStockName VARCHAR(100) NOT NULL,                -- 股票名称bLastPrice VARCHAR(20),                           -- 最新报价bChangeRate VARCHAR(20),                          -- 涨跌幅(带%)bChangeAmount VARCHAR(20),                        -- 涨跌额(带单位)bVolume VARCHAR(20),                              -- 成交量(带单位)bAmplitude VARCHAR(20),                           -- 振幅(带%)bHigh VARCHAR(20),                                 -- 最高价bLow VARCHAR(20),                                  -- 最低价bOpen VARCHAR(20),                                 -- 今开价bPrevClose VARCHAR(20),                            -- 昨收价board VARCHAR(20),                                -- 板块信息timestamp DATETIME DEFAULT CURRENT_TIMESTAMP,     -- 数据插入时间UNIQUE KEY unique_stock_time (bStockNo, timestamp) -- 唯一键,防止重复插入相同时间的数据
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;

为了区分不同板块的数据,在数据库表中添加一个board字段来记录板块信息。

2.根据题目要求构建所需目标网址

  base_url = 'http://quote.eastmoney.com/center/gridlist.html'url = f"{base_url}{board_hash}"driver.get(url)
# 定义需要爬取的板块及其对应的 Hash Fragmentboards = [{'name': '沪深 A 股', 'hash': '#hs_a_board'},{'name': '上证 A 股', 'hash': '#sh_a_board'},{'name': '深证 A 股', 'hash': '#sz_a_board'}]for board in boards:print(f"正在爬取 {board['name']} 数据...")stock_data = scrape_data(board['hash'])if not stock_data:print(f"未获取到 {board['name']} 的任何数据。")continue

遍历需要爬取的板块,依次爬取所需信息。

3.等待页面动态加载完成

    try:# 根据实际情况调整等待条件WebDriverWait(driver, 20).until(EC.presence_of_element_located((By.CSS_SELECTOR, 'table#table_wrapper-table')))except Exception as e:print(f"页面加载超时 ({board_hash}):", e)driver.quit()return []

4.根据网页结构设计XPATH语句爬取目标信息

# 定位股票数据表格try:table = driver.find_element(By.CSS_SELECTOR, 'table#table_wrapper-table')tbody = table.find_element(By.TAG_NAME, 'tbody')rows = tbody.find_elements(By.TAG_NAME, 'tr')except Exception as e:print(f"无法定位表格或行 ({board_hash}):", e)driver.quit()return []data = []for row in rows:try:cols = row.find_elements(By.TAG_NAME, 'td')# 根据页面结构提取数据,以下索引可能需要根据实际页面调整bStockNo = cols[1].text.strip()bStockName = cols[2].text.strip()bLastPrice = cols[4].text.strip()bChangeRate = cols[5].text.strip()bChangeAmount = cols[6].text.strip()bVolume = cols[7].text.strip()bAmplitude = cols[9].text.strip()bHigh = cols[10].text.strip()bLow = cols[11].text.strip()bOpen = cols[12].text.strip()bPrevClose = cols[13].text.strip()data.append((bStockNo, bStockName, bLastPrice, bChangeRate, bChangeAmount,bVolume, bAmplitude, bHigh, bLow, bOpen, bPrevClose,board_hash  # 添加板块信息))except Exception as e:print("数据提取错误:", e)continue

💡运行结果

终端输出:

数据库内容:

每个板块爬取20条数据,共60条。

遇到的问题及解决

  • 问题1:为了实现同时爬取“沪深 A 股”、“上证 A 股”及“深证 A 股”三个板块的股票数据信息,最初采用Selenium模拟依次点击的方法,出错,只能爬取到“沪深 A 股”板块信息。

  • 解决1:根据页面结构分别获取三个板块的URL,依次访问。

  • 问题2:在创建数据库表结构时将很多字段类型设为float,后续插入时因为部分字段包含单位(如“万”)导致无法插入。

  • 解决2:部分字段的数据类型需要从数值类型(如 INT、FLOAT)改为字符串类型(如 VARCHAR),保留包含“万”、“亿”及“%”的字符串。

心得体会

在爬取股票数据的过程中,遇到了很多挑战,也因此让我更加深刻地理解了现代网页技术如JavaScript和Ajax的工作原理,以及如何使用工具如Selenium来有效应对。

作业②

要求
熟练掌握 Selenium 查找HTML元素、实现用户模拟登录、爬取Ajax网页数据、等待HTML元素等内容。
使用Selenium框架+MySQL爬取中国mooc网课程资源信息(课程号、课程名称、学校名称、主讲教师、团队成员、参加人数、课程进度、课程简介)
候选网站
中国mooc网:https://www.icourse163.org

输出信息
MYSQL数据库存储和输出格式
Gitee文件夹链接

爬取mooc课程信息

🌱解析网页结构

1.找到登录按钮,以便完成模拟登录

2.课程列表结构

3.课程详情页信息结构

根据这些,设计XPATH爬取语句

🌱实现思路

1. 配置与初始化

  • 引入必要的模块如Selenium,pymysql等。
  • 数据库连接配置:定义数据库连接参数,如主机、用户、密码、数据库名称和字符集;创建一个函数 init_db 来初始化并返回数据库连接对象,同时处理连接错误。
  • 配置浏览器选项。

2. 用户登录

  • 导航至登录页面,使用 WebDriver 打开 https://www.icourse163.org/
  • 模拟点击登录按钮。
  • 扫码登录,并设置足够的等待时间(例如 30 秒)以完成扫码过程。

3. 爬取所有课程

  • 导航至主课程页面,确保已登录状态。
  • 等待课程元素加载。
  • 提取课程元素,使用正确的 XPath 选择器定位并提取所有课程元素,存储在一个列表中。

4. 遍历并处理每门课程

  • 初始化数据库连接。
  • 遍历课程列表。
  • 等待新窗口/标签页打开,并切换到该窗口,以便操作课程详情页。
  • 调用 scrape_course_details 函数,从课程详情页中提取所需的信息,如课程名称、教师信息、学院、学生人数、课程进度、简介等。
  • 将提取的数据通过insert_data函数插入到数据库中。
  • 关闭当前详情页窗口,切换回主课程页面窗口,准备处理下一个课程。

5. 数据库操作

  • 使用 init_db 函数建立与 MySQL 数据库的连接。
  • 使用 insert_data 函数,将爬取到的课程信息插入到数据库中的courses表。

🎨主要代码

  • login_icourse163 函数通过 Selenium 自动化工具,模拟用户在 icourse163.org 网站上的扫码登录过程,包括打开网站、定位并点击登录按钮、提示用户扫码并等待一段时间。
    # 模拟用户扫码登录
def login_icourse163(driver):try:driver.get("https://www.icourse163.org/")# 等待登录/注册按钮可点击login_button = WebDriverWait(driver, 20).until(EC.presence_of_element_located((By.XPATH, '//div[@class="_3uWA6" and text()="登录/注册"]')))login_button.click()# 等待扫码登录,这里可以通过time.sleep调整扫码等待时间print("请扫码登录...")time.sleep(30)  # 根据需要调整扫码时间except Exception as e:logging.error(f"登录过程中发生错误: {e}")driver.quit()
  • scrape_all_courses 函数的主要目的是从 icourse163.org 的主页面上提取所有课程的元素,并返回这些课程的列表。
# 爬取所有课程
def scrape_all_courses(driver):try:driver.get("https://www.icourse163.org/")logging.info("已导航到主课程页面。")# 等待课程加载WebDriverWait(driver, 20).until(EC.visibility_of_element_located((By.XPATH, "//div[@class='_15K5J']")))logging.info("课程已加载。")# 获取所有课程元素courses = driver.find_elements(By.XPATH, "//div[@class='_2mbYw commonCourseCardItem']")logging.info(f"找到 {len(courses)} 门课程。")return coursesexcept TimeoutException:logging.error("加载课程时超时。")return []except Exception as e:logging.error(f"爬取课程时发生错误: {e}")return []
  • scrape_course_details 函数根据网页结构使用 XPath 定位各个元素,提取课程名称、教师、学院、学生人数、课程进度、简介和团队等信息,从课程详情页中提取课程信息。
# 从课程详情页爬取课程信息
def scrape_course_details(driver):try:# 等待课程详情部分可见WebDriverWait(driver, 10).until(EC.visibility_of_element_located((By.XPATH, "//div[@id='g-body']")))# 提取课程信息cCourse = driver.find_element(By.XPATH, "//span[@class='course-title f-ib f-vam']").textcTeacher = driver.find_element(By.XPATH, "//div[@class='m-teachers_teacher-list']//h3[@class='f-fc3']").textcCollege = driver.find_element(By.XPATH, "//div[@class='m-teachers']//img").get_attribute("alt")cCount = driver.find_element(By.XPATH, "//span[@class='count']").textcProcess = driver.find_element(By.XPATH, "//span[@class='text']").text# 获取课程简介cBrief = driver.find_element(By.XPATH, "//div[@class='course-heading-intro_intro']").text# 获取课程团队(假设是单个元素,根据实际情况调整选择器)cTeam = driver.find_element(By.XPATH, "//div[@class='t-title f-fc3 f-f0']").textlogging.info(f"已爬取课程详情: {cCourse}")return (cCourse, cCollege, cTeacher, cTeam, cCount, cProcess, cBrief)except NoSuchElementException as e:logging.error(f"爬取过程中未找到元素: {e}")return Noneexcept Exception as e:logging.error(f"爬取课程详情时发生错误: {e}")return None
  • 自动化地遍历所有课程,点击每个课程以获取详细信息,提取并存储这些信息到数据库中,同时通过随机延时和日志记录来模拟人类行为并确保过程的可追踪性和稳定性。
# 遍历每门课程并爬取详情for index, course in enumerate(courses, start=1):try:logging.info(f"正在处理第 {index}/{len(courses)} 门课程。")# 将课程滚动到可视区域并点击driver.execute_script("arguments[0].scrollIntoView();", course)random_sleep(1, 2)course.click()# 等待新窗口/标签页打开WebDriverWait(driver, 10).until(EC.number_of_windows_to_be(2))driver.switch_to.window(driver.window_handles[-1])logging.info("已切换到课程详情页。")# 爬取课程详情course_data = scrape_course_details(driver)if course_data:insert_data(connection, course_data)# 关闭详情页并返回主页面driver.close()driver.switch_to.window(driver.window_handles[0])logging.info("已返回主课程页面。")# 随机睡眠以模拟人类行为random_sleep()except Exception as e:logging.error(f"处理课程时发生错误: {e}")# 若发生错误,尝试关闭详情页并返回主页面if len(driver.window_handles) > 1:driver.close()driver.switch_to.window(driver.window_handles[0])logging.info("所有课程爬取完成。")

💡运行结果

运行过程中实现登录:

运行中爬取过程:

终端输出:


mysql数据库中内容:

爬取到了所需课程信息。

遇到的问题及解决

登录流程的复杂性

困难

  • 扫码登录:使用 Selenium 模拟用户扫码登录涉及等待用户手动操作,这增加了自动化的难度。
  • 保持会话状态:确保登录后的会话状态在后续的页面导航中保持,避免因为会话丢失导致无法访问受保护的内容。

解决

  • 等待用户扫码:在登录流程中使用固定的 time.sleep() 等待足够的时间(如 30 秒)让用户完成扫码操作。同时,添加日志记录提示用户扫码。
  • 保持会话状态:确保在整个爬虫脚本中使用同一个 driver 实例,不要在登录后重新初始化 WebDriver。这样可以维持会话的持续性。

课程详情页与主页面之间的切换

困难

  • 窗口管理复杂:点击课程后,课程详情页可能在新窗口或新标签页中打开,在多个窗口或标签页之间切换时,容易混淆窗口句柄,导致操作错误的窗口。
  • 同步问题:新窗口打开后,课程详情页可能需要时间加载,若未正确等待,可能导致元素定位失败;关闭详情页后,需要确保切换回主页面窗口,避免 NoSuchWindowException。
  • 元素引用失效:在窗口切换过程中,主页面上的课程元素引用可能失效,导致无法继续操作。
  • 异常处理不足:未能正确关闭窗口或错误窗口切换。

解决

  • 获取主窗口句柄,点击课程并获取新窗口句柄。
  • 由于窗口切换可能导致主页面上的元素引用失效,建议在每次循环开始前,重新获取课程元素列表,或者使用索引来定位课程。
  • 全面异常处理,确保窗口切换的稳定性,确保无论发生何种错误,都能正确关闭详情页窗口并切换回主窗口,避免后续操作受阻。

心得体会

  • 在开始编写爬虫之前,需要深入分析目标网站的页面结构和动态加载机制。通过使用浏览器的开发者工具,准确定位需要抓取的元素,并设计出有效的 XPath选择器。

  • 在项目中不仅使用了 Selenium 的基本功能如元素定位和点击操作,还深入学习了显式等待(WebDriverWait)和预期条件(ExpectedConditions),以确保页面元素完全加载后再进行操作。

  • 通过记录主窗口的句柄,封装窗口切换和关闭的逻辑,我成功实现了在主页面与详情页之间的平稳切换。

通过这次实践,我对 Selenium 和网页爬虫有了更深入的理解,并积累了宝贵的实战经验。

作业③

要求
掌握大数据相关服务,熟悉Xshell的使用
完成文档 华为云_大数据实时分析处理实验手册-Flume日志采集实验(部分)v2.docx 中的任务,即为下面5个任务,具体操作见文档。
环境搭建
任务一:开通MapReduce服务
实时分析开发实战:
任务一:Python脚本生成测试数据
任务二:配置Kafka
任务三: 安装Flume客户端
任务四:配置Flume采集数据
输出信息

实验关键步骤或结果截图。

Flume日志采集

🌱环境搭建

开通MapReduce服务

按要求配置购买MRS集群:

🎨实时分析开发实战

1.Python脚本生成测试数据

  • 登录MRS的master节点服务器:输入用户名和密码进行登录
  • 编写Python脚本

  • 创建存放测试数据的目录
  • 执行脚本测试:执行命令,并查看生成的数据

2.配置Kafka

  • 进入MRS Manager集群管理。
  • 下载Kafka客户端。

  • 校验下载的客户端文件包

    执行命令,解压,检验文件包

  • 安装Kafka运行环境
    解压“MRS_Flume_ClientConfig.tar”文件:

    查看解压后的文件:

    安装客户端运行环境:

    执行命令配置环境变量:

  • 安装Kafka客户端
    安装Kafka到目录“/opt/KafkaClient”

  • 设置环境变量

  • 在kafka中创建topic

  • 查看topic信息

3. 安装Flume客户端

  • 进入MRS Manager集群管理

  • 下载Flume客户端。

  • 校验下载的客户端文件包。

  • 安装Flume运行环境。

  • 安装Flume客户端。

  • 重启Flume服务

4. 配置Flume采集数据

  • 修改配置文件

  • 创建消费者消费kafka中的数据

心得体会

本次实验中,我使用Python脚本模拟了生产商品的实时销售数据,然后通过Flume和Kafka完成数据的采集和传输。这一过程中,我学会了如何通过流处理框架对海量数据进行快速分析和处理,并及时将分析结果存入RDS数据库。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/836209.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

2-SQL注入渗透与攻防

1、SQL注入基础 1.1 什么是sql注入 一、SQL注入概述 二、数据库概述 1.关系型数据库 关系型数据库,存储格式可以直观的反映实体间的关系,和常见的表格比较相似 关系型数据库中表与表之间有很多复杂的关联关系的 常见的关系型数据库有MySQL、Orcale、PostgreSQL、SQL Server等…

vscode go语言注释语句黄色波浪线

go语言注释代码总是飘着黄色波浪线提示:(with optional leading article) (ST1021)go-staticcheck,非常影响观感。 经过查询发现,go-staticcheck 是一个用于 Go 代码静态分析的工具,用来检测代码中的潜在问题、代码规范以及常见的错误。本次错误信息来自 go-staticcheck 中…

1-信息收集

1.1 域名信息 whois、域名反查、ICP备案、企业信息查询 子域名收集工具:Layer子域名挖掘机等 原理:枚举、字典 域名:baidu.com 子域名:news.baidu.com、map.baidu.com、www.baidu.com、... 域名DNS信息 Domain Name Server 域名解析服务www.baidu.com --> 域名解析服务 …

springboot~jpa优雅的处理isDelete的默认值

如果多个实体类都有 isDelete 字段,并且你希望在插入时为它们统一设置默认值,可以采取以下几种方法来减少代码重复: 1. 使用基类(抽象类) 创建一个基类,其中包含 isDelete 字段和 @PrePersist 方法。然后让所有需要这个字段的实体类继承这个基类。 示例代码: import jav…

20222412 2024-2025-1 《网络与系统攻防技术》实验六实验报告

20222412 2024-2025-1 《网络与系统攻防技术》实验六实验报告 1.实验内容 主要任务:基于Metasploit框架,实现漏洞利用。 Metasploit框架(MSF)由HD Moore于2003年发布,并在2007年使用Ruby语言重写。它提供了一套完整的渗透测试框架,包括漏洞利用模块、攻击载荷、辅助模块、…

01计算机简介

001简介 计算机硬件逻辑组成

访谈李继刚:从哲学层面与大模型对话

当面访谈李继刚,看他如何理解提示工程,从哲学角度探讨提示词的“道”与“术”。相信不少人和我一样,是从“汉语新解”这段爆火提示词中知道李继刚这位“神人”的。直到看到11月4日公众号“数字生命卡兹克”对继刚做了专访文章《专访"Prompt之神"李继刚 - 我想用20…

k8s: 配置ingress的会话亲和(转载)

Ingress会话亲和,又称会话保持,粘性会话,指同一客户端的请求在一定时间内会被ingress路由到相同的pod处理. 本文控制器使用的是ingress-nginxingress默认的负载均衡策略是轮询, 验证如下 使用浏览器连续访问9次ingress 查看ingress日志, 可看到9次请求被轮询负载到不同pod处理 …

线性代数知识点复习——范数

范数(Norm) 是数学中的一个概念,用于度量向量、矩阵或张量的大小或长度。范数是向量空间上的一种函数,能够将向量映射为非负实数,表示向量的某种“长度”或“大小”。

计算机基础-DNS

DNS是什么 DNS(Domain Name System)是⼀种⽤于将域名(例如www.baidu.com)转换为IP地址(例如 220.181.111.188 )的分布式系统。 在互联⽹上,计算机和其他⽹络设备使⽤IP地址来相互识别和通信。 然⽽, IP地址是⼀串数字,不太⽅便⼈们使⽤和记忆,所以就使⽤了域名来代替…

Mybatis 常见异常

Mybatis 列表查询只返回了部分数据,Sql 语句多出 limit 异常 // list查询接口 List<Info> infoList = xxxMapper.selectList();列表查询接口,只返回了部分数据 原因 通过日志观察,发现日志打印的sql多了limit参数,怀疑时与分页有关; 基于此,搜索资料发现,PageHelp…