JavaScript可用于网页抓取,主要适用于动态内容。使用Puppeteer可控制无头浏览器执行JS并提取数据;对于静态页面,可用axios结合Cheerio解析HTML;需设置请求头、用户代理以应对反爬;抓取结果可保存为JSON或CSV,并通过node-cron定时运行任务。

JavaScript 可以用于网页数据抓取,但主要适用于动态内容较多的网站。由于浏览器能执行 JavaScript,很多现代网站依赖它加载数据,因此使用支持 JS 执行的工具是关键。
Puppeteer 是一个由 Google 开发的 Node.js 库,能控制无头(headless)Chrome 或 Chromium 浏览器,非常适合抓取通过 JavaScript 动态生成的内容。
基本步骤:
const puppeteer = require('puppeteer');
(async () => {
const browser = await puppeteer.launch();
const page = await browser.newPage();
await page.goto('https://example.com');
// 等待某个元素出现
await page.waitForSelector('.item-title');
// 在页面上下文中执行 JS 获取数据
const titles = await page.evaluate(() => {
return Array.from(document.querySelectorAll('.item-title')).map(el => el.textContent);
});
console.log(titles);
await browser.close();
})();
如果目标网页不依赖 JavaScript 渲染,可以用 Node.js 的 axios + cheerio 组合快速抓取和解析 HTML。
立即学习“Java免费学习笔记(深入)”;
Cheerio 类似于 jQuery,能在服务器端操作 DOM 结构。
const axios = require('axios');
const cheerio = require('cheerio');
axios.get('https://example.com')
.then(response => {
const $ = cheerio.load(response.data);
const items = [];
$('.item').each((i, el) => {
items.push($(el).find('h2').text());
});
console.log(items);
})
.catch(err => console.error(err));
很多网站会检测自动化行为。为提高成功率:
在 Puppeteer 中可这样设置:
await page.setUserAgent('Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36');
抓取到的数据可以保存为 JSON、CSV 或写入数据库。
结合 Node.js 的 fs 模块写文件:
const fs = require('fs');
fs.writeFileSync('data.json', JSON.stringify(titles, null, 2));
若需定期运行,可用系统 cron 或 Node 的 node-cron 库安排任务。
基本上就这些。选对工具,看清目标网站结构,遵守 robots.txt 和服务条款,合理使用技术。
以上就是如何利用JavaScript进行数据抓取(Web Scraping)?的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号