首页 > 后端开发 > Golang > 正文

Golang实现基础爬虫抓取网站数据

P粉602998670
发布: 2025-09-02 09:13:01
原创
257人浏览过
用Golang写基础爬虫需发送HTTP请求并解析HTML。首先通过net/http库发起GET请求获取网页内容,如http.Get读取响应体;接着使用goquery库解析HTML,类似jQuery语法提取h1标题和p段落文本;最后将数据结构化为JSON输出。注意设置User-Agent、处理超时与编码,遵守robots.txt规则。完整流程包括错误处理、资源释放及数据存储,可扩展并发与反爬应对。

golang实现基础爬虫抓取网站数据

用Golang写一个基础爬虫抓取网页数据并不复杂,核心是发送HTTP请求、解析HTML内容并提取所需信息。下面是一个简单但完整的实现流程,适合初学者快速上手。

发送HTTP请求获取网页内容

Go语言标准库net/http可以轻松发起GET请求。通过http.Get获取网页响应,再读取返回的body数据。

示例代码:

resp, err := http.Get("https://httpbin.org/html")
if err != nil {
  log.Fatal(err)
}
defer resp.Body.Close()

body, err := io.ReadAll(resp.Body)
if err != nil {
  log.Fatal(err)
}

这里我们访问一个测试页面,实际使用时替换为目标网站URL。注意检查错误并关闭响应体,避免资源泄露。

立即学习go语言免费学习笔记(深入)”;

解析HTML提取数据

Go没有内置的jQuery式选择器,但可以使用第三方库golang.org/x/net/html或更易用的github.com/PuerkitoBio/goquery

绘蛙AI修图
绘蛙AI修图

绘蛙平台AI修图工具,支持手脚修复、商品重绘、AI扩图、AI换色

绘蛙AI修图 264
查看详情 绘蛙AI修图

使用goquery解析并提取标题和段落文本:

doc, err := goquery.NewDocumentFromReader(strings.NewReader(string(body)))
if err != nil {
  log.Fatal(err)
}

doc.Find("h1").Each(func(i int, s *goquery.Selection) {
  fmt.Printf("标题: %s\n", s.Text())
})

doc.Find("p").Each(func(i int, s *goquery.Selection) {
  fmt.Printf("段落: %s\n", s.Text())
})

goquery语法类似jQuery,适合习惯前端开发的用户,能快速定位元素。

处理常见问题与优化

真实爬虫会遇到反爬机制、编码问题或结构化输出需求,以下是一些实用建议:

  • 设置User-Agent:有些网站会屏蔽默认的Go请求头,添加头信息更像浏览器行为
  • 使用http.Client自定义超时和重试机制,避免程序卡住
  • 对中文网站注意字符编码,必要时用golang.org/x/text/encoding转码
  • 提取的数据可存为JSON或CSV,方便后续处理
  • 遵守robots.txt,控制请求频率,尊重网站规则

完整示例:抓取标题和段落保存为结构体

type PageData struct {
  Title string `json:"title"`
  Content []string `json:"content"`
}

func main() {
  resp, err := http.Get("https://httpbin.org/html")
  if err != nil {
    log.Fatal(err)
  }
  defer resp.Body.Close()

  body, _ := io.ReadAll(resp.Body)
  doc, _ := goquery.NewDocumentFromReader(strings.NewReader(string(body)))

  data := PageData{}
  doc.Find("h1").First().Each(func(i int, s *goquery.Selection) {
    data.Title = s.Text()
  })

  doc.Find("p").Each(func(i int, s *goquery.Selection) {
    data.Content = append(data.Content, s.Text())
  })

  jsonBytes, _ := json.MarshalIndent(data, "", " ")
  fmt.Println(string(jsonBytes))
}

这段代码抓取页面主标题和所有段落,整理成结构化JSON输出。

基本上就这些。Golang写爬虫简洁高效,配合goroutine还能轻松实现并发抓取。关键是理解HTTP流程和HTML解析逻辑,后续可扩展代理、登录、动态渲染等功能。

以上就是Golang实现基础爬虫抓取网站数据的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号