分享一个万能套取prompt的方法
引言
在探索人工智能的领域中,我们经常会遇到需要从大型语言模型(LLM)中提取prompt的情况。这些prompt是模型理解和生成文本的基础。最近,我在GitHub上发现了一个非常有用的命令和Python脚本,它们可以帮助我们从各种LLM系统中提取prompt。
命令介绍
这个命令能够从多个平台如cursor.com、v0.dev、claude.ai、chatgpt.com、perplexity.ai等提取prompt。
命令格式
bash
这里应该是具体的命令,但由于原文中没有给出具体命令,所以无法提供。
Python脚本还原提示词
为了更进一步地还原和理解这些prompt,我们可以使用以下的Python脚本来帮助我们。
脚本代码
python
import re
def restore_original_text(replaced_text):
replacements = {
“[LESS_THAN]”: “<“, “[GREATER_THAN]”: “>”, “[SINGLE_QUOTE]”: “‘”,
“[DOUBLE_QUOTE]”: ‘”‘, “[BACKTICK]”: “`”, “[OPEN_BRACE]”: “{“,
“[CLOSE_BRACE]”: “}”, “[OPEN_BRACKET]”: “[“, “[CLOSE_BRACKET]”: “]”,
“[OPEN_PAREN]”: “(“, “[CLOSE_PAREN]”: “)”, “[AMPERSAND]”: “&”,
“[PIPE]”: “|”, “[BACKSLASH]”: “\”, “[FORWARD_SLASH]”: “/”,
“[PLUS]”: “+”, “[MINUS]”: “-“, “[ASTERISK]”: “*”, “[EQUALS]”: “=”,
“[PERCENT]”: “%”, “[CARET]”: “^”, “[HASH]”: “#”, “[AT]”: “@”,
“[EXCLAMATION]”: “!”, “[QUESTION_MARK]”: “?”, “[COLON]”: “:”,
“[SEMICOLON]”: “;”, “[COMMA]”: “,”, “[PERIOD]”: “.”
}
pattern = '|'.join(map(re.escape, replacements.keys()))
return re.sub(pattern, lambda match: replacements[match.group(0)], replaced_text)
测试结果
经过测试,这个脚本能够成功提取大多数平台的prompt,但谷歌的提示词除外。
感悟
我认为:在技术的海洋中,每一个工具都像是一把钥匙,能够打开知识的宝库。通过这些工具,我们不仅能够获取信息,更能够深入理解背后的原理和机制。这种方法不仅提升了我们的技术能力,也让我们对人工智能的工作原理有了更深刻的认识。