
最近在构建一个依赖OpenAI GPT-3 API的智能问答系统时,我遇到了一个颇为棘手的挑战。我的PHP应用需要将用户的长文本输入发送给GPT-3进行处理,但众所周知,GPT-3 API对每次请求的Token数量有严格的限制,并且所有调用都是按Token计费的。
起初,我尝试简单地通过字符串长度来估算Token,但很快就发现这种方法完全不可靠。GPT-3使用的是一种名为“字节对编码”(Byte Pair Encoding, BPE)的分词技术,一个汉字可能是一个Token,也可能是多个;一个英文单词也可能被拆分成多个Token。这意味着,如果我不能在发送请求前准确地知道文本会消耗多少Token,我就会面临两个大问题:
这让我陷入了两难:是冒险发送请求,还是自己实现一套复杂的BPE分词逻辑?前者风险太大,后者则需要投入大量时间和精力,并且还需要确保分词逻辑与OpenAI官方保持一致。
gioni06/gpt3-tokenizer 的出现就在我一筹莫展之际,我发现了gioni06/gpt3-tokenizer这个Composer库。它简直是为解决我的问题量身定制的!这个库是GPT-3分词器的PHP移植版本,基于Python和Node.js的原始实现,能够让PHP应用在本地进行与GPT-3完全一致的BPE分词。这意味着,我终于可以在发送请求给OpenAI API之前,精确地计算出文本的Token数量了!
gioni06/gpt3-tokenizer
gioni06/gpt3-tokenizer的使用非常直观。首先,通过Composer轻松安装它:
<code class="bash">composer require gioni06/gpt3-tokenizer</code>
安装完成后,你就可以在你的PHP代码中引入并使用了。
1. 基本配置与缓存
库提供了一个Gpt3TokenizerConfig类,用于配置分词器的词汇表(vocab)和合并规则(merges)文件路径。对于大多数用户来说,使用默认配置即可。值得一提的是,它还内置了缓存机制,默认启用,如果你的服务器支持apcu,性能会更佳。
<pre class="brush:php;toolbar:false;">use Gioni06\Gpt3Tokenizer\Gpt3TokenizerConfig; use Gioni06\Gpt3Tokenizer\Gpt3Tokenizer; // 使用默认配置,包含默认的词汇表和合并文件,并启用缓存 $config = new Gpt3TokenizerConfig(); $tokenizer = new Gpt3Tokenizer($config);
2. 编码文本:将文本转换为Token序列
这是分词器的核心功能之一。encode()方法可以将你的文本转换为一个整数数组,每个整数代表一个Token。
<pre class="brush:php;toolbar:false;">$text = "This is a test sentence for GPT-3 tokenization.";
$tokens = $tokenizer->encode($text);
// $tokens 现在是一个类似 [1212, 318, 257, 1290, 6088, 12523, 13] 的整数数组
echo "编码后的Token序列: " . implode(', ', $tokens) . PHP_EOL;3. 解码Token:将Token序列还原为文本
如果你需要将API返回的Token序列(例如从API返回的日志中)还原为可读的文本,decode()方法就能派上用场。
<pre class="brush:php;toolbar:false;">$decodedText = $tokenizer->decode($tokens); echo "解码后的文本: " . $decodedText . PHP_EOL; // 输出: 解码后的文本: This is a test sentence for GPT-3 tokenization.
4. 统计Token数量:精确预估API消耗
这无疑是解决我最初问题的关键。count()方法能够直接返回给定文本的Token数量,让你在发送API请求前就能知道成本和是否会超出限制。
<pre class="brush:php;toolbar:false;">$text = "你好,世界!这是一个中文和英文混合的测试文本。"; $numberOfTokens = $tokenizer->count($text); echo "文本的Token数量: " . $numberOfTokens . PHP_EOL; // 输出: 文本的Token数量: 24 (示例值,实际可能因具体内容而异)
有了这个功能,我就可以在用户提交内容后立即进行Token检查,如果超出限制,可以提示用户精简内容,或者自动进行下一步处理。
5. 智能分块:处理超长文本的利器
当用户输入非常长,超出了单个API请求的Token限制时,gioni06/gpt3-tokenizer提供了encodeInChunks()和chunk()方法,可以将文本智能地分割成多个符合Token限制的片段。
chunk()方法直接返回文本字符串的数组,每个元素都是一个Token数量不超过指定上限的子字符串。
<pre class="brush:php;toolbar:false;">$longText = "这是一个非常非常长的文本,它需要被分割成多个小块才能发送给GPT-3 API进行处理。为了演示这个功能,我们将添加更多内容,以确保它能够被有效地分块。这是一个非常非常长的文本,它需要被分割成多个小块才能发送给GPT-3 API进行处理。为了演示这个功能,我们将添加更多内容,以确保它能够被有效地分块。";
$maxTokensPerChunk = 20; // 假设每个块最多20个Token
$textChunks = $tokenizer->chunk($longText, $maxTokensPerChunk);
echo "分块后的文本:\n";
foreach ($textChunks as $index => $chunk) {
echo "块 " . ($index + 1) . " (Token数: " . $tokenizer->count($chunk) . "): " . $chunk . PHP_EOL;
}
/*
示例输出 (Token数可能因实际分词结果略有不同):
块 1 (Token数: 19): 这是一个非常非常长的文本,它需要被分割成多个小块才能发送给GPT-3 API进行处理。为了演示这个功能,我们将添加更多内容,以确保它能够
块 2 (Token数: 17): 被有效地分块。这是一个非常非常长的文本,它需要被分割成多个小块才能发送给GPT-3 API进行处理。为了演示这个功能,我们将添加
块 3 (Token数: 12): 更多内容,以确保它能够被有效地分块。
*/这个功能对于处理用户上传的文档、长篇报告等场景特别有用,你可以将它们拆分成多个请求并行处理,再将结果合并,极大地扩展了GPT-3 API的应用范围。
gioni06/gpt3-tokenizer库的引入,彻底改变了我与GPT-3 API交互的方式,带来了多方面的显著优势:
现在,我的智能问答系统能够自信地处理各种长度的用户输入,无论是短句还是长文,都能在预算可控、性能稳定的前提下,充分发挥GPT-3的强大能力。如果你也在PHP项目中与OpenAI API打交道,那么gioni06/gpt3-tokenizer绝对是你工具箱中不可或缺的一员。
以上就是如何精确计算GPT-3文本消耗?gioni06/gpt3-tokenizer助你高效管理API成本的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号