AWS Bedrock 聊天模型节点
AWS Bedrock 聊天模型节点允许您使用利用 AWS Bedrock 平台的 LLM 模型。
在此页面上,您将找到 AWS Bedrock Chat Model 节点的节点参数以及更多资源的链接。
子节点中的参数解析
当使用表达式处理多个项目时,子节点的行为与其他节点不同。
大多数节点(包括根节点)都会接受任意数量的项作为输入,处理这些项并输出结果。您可以使用表达式来引用输入项,节点会依次解析每个项的表达式。例如,给定一个包含五个值的输入,表达式会依次解析每个名称。
在子节点中,表达式始终解析为第一项。例如,给定五个值的输入,表达式始终解析为名字。
节点参数
- 模型:选择生成完成的模型。
在
Amazon Bedrock 模型文档中了解有关可用模型的更多信息。节点选项
- 最大令牌数:输入使用的最大令牌数,用于设置完成长度。
- 采样温度:使用此选项控制采样过程的随机性。较高的温度可以实现更多样化的采样,但会增加出现幻觉的风险。
模板和示例
没有任何
相关资源
有关该服务的更多信息,请参阅
LangChains 的 AWS Bedrock Chat Model 文档。查看 n8n 的
高级 AI文档。人工智能词汇表
- 完成:完成是由 GPT 等模型生成的响应。
- 幻觉:人工智能中的幻觉是指 LLM(大型语言模型)错误地感知到不存在的模式或物体。
- 向量数据库:向量数据库存储信息的数学表示。与嵌入和检索器一起使用,可以创建一个供您的 AI 在回答问题时访问的数据库。
- 向量存储:向量存储,或称向量数据库,用于存储信息的数学表示。与嵌入和检索器结合使用,可以创建一个供 AI 在回答问题时访问的数据库。