用Golang写基础爬虫需发送HTTP请求并解析HTML。首先通过net/http库发起GET请求获取网页内容,如http.Get读取响应体;接着使用goquery库解析HTML,类似jQuery语法提取h1标题和p段落文本;最后将数据结构化为JSON输出。注意设置User-Agent、处理超时与编码,遵守robots.txt规则。完整流程包括错误处理、资源释放及数据存储,可扩展并发与反爬应对。

用Golang写一个基础爬虫抓取网页数据并不复杂,核心是发送HTTP请求、解析HTML内容并提取所需信息。下面是一个简单但完整的实现流程,适合初学者快速上手。
Go语言标准库net/http可以轻松发起GET请求。通过http.Get获取网页响应,再读取返回的body数据。
示例代码:
resp, err := http.Get("https://httpbin.org/html")
if err != nil {
log.Fatal(err)
}
defer resp.Body.Close()
body, err := io.ReadAll(resp.Body)
if err != nil {
log.Fatal(err)
}
这里我们访问一个测试页面,实际使用时替换为目标网站URL。注意检查错误并关闭响应体,避免资源泄露。
立即学习“go语言免费学习笔记(深入)”;
Go没有内置的jQuery式选择器,但可以使用第三方库golang.org/x/net/html或更易用的github.com/PuerkitoBio/goquery。
使用goquery解析并提取标题和段落文本:
doc, err := goquery.NewDocumentFromReader(strings.NewReader(string(body)))
if err != nil {
log.Fatal(err)
}
doc.Find("h1").Each(func(i int, s *goquery.Selection) {
fmt.Printf("标题: %s\n", s.Text())
})
doc.Find("p").Each(func(i int, s *goquery.Selection) {
fmt.Printf("段落: %s\n", s.Text())
})
goquery语法类似jQuery,适合习惯前端开发的用户,能快速定位元素。
真实爬虫会遇到反爬机制、编码问题或结构化输出需求,以下是一些实用建议:
type PageData struct {
Title string `json:"title"`
Content []string `json:"content"`
}
func main() {
resp, err := http.Get("https://httpbin.org/html")
if err != nil {
log.Fatal(err)
}
defer resp.Body.Close()
body, _ := io.ReadAll(resp.Body)
doc, _ := goquery.NewDocumentFromReader(strings.NewReader(string(body)))
data := PageData{}
doc.Find("h1").First().Each(func(i int, s *goquery.Selection) {
data.Title = s.Text()
})
doc.Find("p").Each(func(i int, s *goquery.Selection) {
data.Content = append(data.Content, s.Text())
})
jsonBytes, _ := json.MarshalIndent(data, "", " ")
fmt.Println(string(jsonBytes))
}
这段代码抓取页面主标题和所有段落,整理成结构化JSON输出。
基本上就这些。Golang写爬虫简洁高效,配合goroutine还能轻松实现并发抓取。关键是理解HTTP流程和HTML解析逻辑,后续可扩展代理、登录、动态渲染等功能。
以上就是Golang实现基础爬虫抓取网站数据的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号