前言
本文主要的知识点是使用Python的BeautifulSoup进行多层的遍历。

如图所示。只是一个简单的哈,不是爬取里面的隐藏的东西。
示例代码
from bs4 import BeautifulSoup as bs
import requests
headers = {
"host": "www.jd.com",
"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.80 Safari/537.36 Core/1.47.933.400 QQBrowser/9.4.8699.400",
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8"
}
session = requests.session()
def get_url():
renspned = bs(session.get('http://www.jd.com/',headers = headers).text,'html.parser')
for i in renspned.find("p", {"class": "dd-inner"}).find_all("a",{"target":"_blank"}):
print(i.get_text(),':',i.get('href'))
get_url()立即学习“Python免费学习笔记(深入)”;
运行这段代码以及达到了我们的目的。

我们来解读一下这段代码。
首先我们要访问到京东的首页。
然后通过BeautifulSoup对访问到的首页进行解析。
这个时候,我们就要定位元素,来获取我们需要的东西了。
在浏览器中通过F12,我们可以看到下图所示的东西:

我们来看看下面这句代码:
for i in renspned.find("p", {"class": "dd-inner"}).find_all("a",{"target":"_blank"})立即学习“Python免费学习笔记(深入)”;
这一行代码完全满足我们的需求,首先用find方法,定位到了class=“dd-inner”的p,然后使用find_all对该标签下所有的a标签。
最后,我想打印出所有的商品分类以及对应的链接,于是,我使用了i.get_text()和i.get('href')的方法终于获取到了商品分类和对应的链接。
总结
其实不是很难,主要是要用对方法。笔者因为是初学方法没有用对。花了差不多两天时间才搞定。这里也是告诉大家,可以使用find().find_all()的方法进行多层的遍历。以上就是我利用Python爬取京东的商品分类与链接的一些经验,希望对大家学习python能有所帮助。
更多Python爬取京东的商品分类与链接相关文章请关注PHP中文网!
京东app是一款移动购物软件,具有商品搜索/浏览、评论查阅、商品购买、在线支付/货到付款、订单查询、物流跟踪、晒单/评价、返修退换货等功能,为您打造简单、快乐的生活体验。有需要的小伙伴快来保存下载体验吧!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号