这是一个基于Paddle和ChatGLM6B的灵感中心,用户可查看、使用他人提示词,输入问题获取模型生成结果。2023年6月21日至7月24日提交提示词PR有机会获百度周边礼品。用户可提交提示词至指定GitHub仓库,提交后能在页面调用,也可分享应用。还介绍了Prompt的结构、基础知识、调试创造及提交方法等内容。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

在2023.06.21-2023.07.24期间内,报名灵感中心「Prompt」PR征集并给Prompts仓库提交PR,还可以获得小礼品,包括百度周边雨伞、玩偶、包、被子、耳机、音响等等!
这是一个基于Paddle和ChatGLM6B的灵感中心,在这里,你可以查看别人准备好的提示词,并基于别人的提示词,输入自己想要查询的问题,获取ChatGLM6B生成的结果。
例如,基于特定的提示词,ChatGLM6B能够准确回答烹饪相关问题,你可以在应用页面选中特定提示词,向ChatGLM6B咨询烹饪问题。
如果你有一个有趣的提示词,你可以将这个提示词提交到 https://github.com/Liyulingyue/ChatGLM-6B-Prompt ,提交后即可在当前页面快捷调用ChatGLM6B,也可以将本页面分享给您的朋友,让他们快捷体验您的提示词。
进入项目首页,进入应用体验,通过提示词主题,即可选择对应的提示词,根据文本提示,输入对应的内容,点击最下方的生成按钮即可调用ChatGLM6B生成结果。
此外,本项目中展示的内容会实时根据 https://github.com/Liyulingyue/ChatGLM-6B-Prompt 刷新,如果你向这个github项目提交了一个提示词主题,可以通过更新按钮进行更新,即可在提示词主题中,选择你提交的提示词,快捷使用了。
如果你想分享给别人,并让别人快捷使用你的提示词的话,可以将本项目链接 https://aistudio.baidu.com/aistudio/projectdetail/6421937 发送给别人,告诉朋友需要选择哪一个提示词主题即可。
本段仅简述Prompt格式,以及Prompt的基本概念,如果需要在Aistudio上运行ChatGLM6B,尝试自己构造Prompt,请参加最后一节,非常简单!
Prompt的基本概念可以理解为,通过一些辅助性描述,让模型产出更符合要求的结果。
例如,我希望模型能够告诉我如何做菜,最好是拆解成一个个步骤,那么ChatGLM6B的输入可能是:
请逐个步骤地告诉我,怎么做炒米饭
这种情况下,可能输出并不完美,我们可以换一个说辞:
你是一个熟练的厨师,能够使用明确的词汇告诉别人做菜的步骤,请在一开始提醒别人准备好所有需要的材料以及展示材料的内容,请回答 炒米饭 怎么做
模型地返回信息将更为详尽,切符合我们地要求。
并且,后面这段话只需要将炒米饭更换为其他的菜名,就可以获取对应的菜谱,我们可以将后者称之为一个通用性强的prompt。
本项目从本质来说,就是在收集一系列通用性强的prompt,并且提供一个便于调用的接口。
本项目以json的形式记录Prompt,打开 https://github.com/Liyulingyue/ChatGLM-6B-Prompt 中的json文件,里面的内容为
[
{'name': '动物看护小助手',
'prompt': '你是一个具有丰富经验的兽医,能够根据动物的症状,给出对应的养护建议,请回答“&*keys*&”',
'example_input': '母猪产后该怎么护理',
'introduction': "一个小助手,告诉它动物的症状,它会告诉你该怎么护理"},
{'name', ...}
]其中,name是这个prompt的名称,prompt是调用的基础格式,&keys&是预留字符,用于替换用户输入的文字,example_input是示例输入,introduction是对这个prompt的介绍文本。
简单来说,如果在我们的应用体验页面中,选中动物看护小助手,并输入"小狗总是啃墙皮该怎么办",点击生成按钮后,输入给ChatGLM的文字是"你是一个具有丰富经验的兽医,能够根据动物的症状,给出对应的养护建议,请回答“小狗总是啃墙皮该怎么办”"。
如果你更愿意接触代码行调用,自己配置一些底层参数,甚至希望进行多轮对话,可以参考 https://aistudio.baidu.com/aistudio/projectdetail/6307966?contributionType=1 在ChatGLM6B中快速尝试和体验不同的输入产生的结果,即可构造有一个自己Prompt。
如果你愿意零基础,零部署式地使用这一切,可以通过本项目地应用体验中“快速使用ChatGLM6B”获取ChatGLM6B的输出。
以菜谱问答助手为例,首先输入你是一个熟练的厨师,能够使用明确的词汇告诉别人做菜的步骤,请在一开始提醒别人准备好所有需要的材料以及展示材料的内容,请回答 炒米饭 怎么做,然后输入你是一个熟练的厨师,能够使用明确的词汇告诉别人做菜的步骤,请在一开始提醒别人准备好所有需要的材料以及展示材料的内容,请回答 西红柿炒鸡蛋 怎么做,类似的可以用一些其他的菜谱做测试。如果输出都非常稳定,则意味着
你是一个熟练的厨师,能够使用明确的词汇告诉别人做菜的步骤,请在一开始提醒别人准备好所有需要的材料以及展示材料的内容,请回答 ______ 怎么做是一个高质量的Prompt,你就可以参考下面的介绍提交Prompt,并且让大家在线使用啦~
在 https://github.com/Liyulingyue/ChatGLM-6B-Prompt 页面中,点击右上角fork,然后将自己的仓库拉取到本地,修改 add_prompt.py 中内容,即可快捷增加自己 的Prompt,推送到自己的仓库中提pull request即可。
运行下面的代码,拉取配置文件
# 有时候网络不好就...换个时间再试试好了,或者在本地或者github的网页上操作都可以! git clone https://github.com/Liyulingyue/ChatGLM-6B-Prompt.git %cd ChatGLM-6B-Prompt
# 进入到ChatGLM-6B-Prompt文件夹,修改第八行的信息。# 读取配置信息import jsonwith open('prompts.json') as f:
data = json.load(f)# 添加一个新的Prompta_prompt = {'name': '请输入一个简单易懂的名称',
'prompt': '请输入你的Prompt,以&*keys*&作为占位符,用于替换用户输入的内容',
'example_input': '一个示例输入',
'introduction': "对这个Prompt的介绍"}
data.append(a_prompt)# 保存到文件中# 使用indent和ensure_asscii=False以提高可读性with open('prompts.json','w') as f:
json.dump(data,f,indent=True,ensure_ascii=False)下载 ChatGLM-6B-Prompt/prompts.json,在 https://github.com/Liyulingyue/ChatGLM-6B-Prompt 页面中,点击右上角fork,在自己的仓库中,上传下载后的prompts.json,提交一个pull request即可。
请点击此处查看本环境基本用法.
Please click here for more detailed instructions.
以上就是基于Paddle和ChatGLM6B的灵感中心的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号