卓越方达logo200*800

使用 KNIME AI 扩展访问 DeepSeek 的 AI 模型

更新 2025年2月10日

科技巨头之间为开发高性能、低成本和开源模型而进行的竞争正在升温。

DeepSeek 的 V3 和 R1 模型在自然语言处理领域表现出色,而 KNIME 作为开源数据分析平台,通过可视化工作流让模型集成更加直观。本文将详细介绍如何通过 KNIME AI 扩展 连接 DeepSeek 的模型,并重点说明身份验证、连接配置和提示词优化技巧。

作为 KNIME AI 扩展的一部分,最新版本的 KNIME 分析平台为您提供了连接到 DeepSeek 的聊天和推理模型以及 OpenAI o3-mini 的功能。这些新功能进一步扩展了您使用可视化工作流构建 AI 驱动型应用程序的可能性,确保您的 AI 管道透明且易于记录和解释。

本文将介绍如何使用 DeepSeek 节点进行身份验证、连接和提示。我们在此处显示的内容与您在 KNIME 中连接到其他模型的方式非常相似,例如 OpenAI(包括 o3-mini)、Azure OpenAI、Databricks、Hugging Face、GPT4All 和 Ollama。

KNIME AI 扩展中的新 DeepSeek 节点。

KNIME AI 扩展提供了一套全面的功能,用于与开源和专有 AI 模型集成,用于跨各种提供商和平台进行聊天和嵌入。

该扩展使用户能够与模型交互、创建和管理矢量存储、设计 RAG 系统以及开发智能代理。它还使用户能够访问用于 LLM 和 RAG 评估的库,而 KNIME Business Hub 则提供用于 GenAI 治理的工具,例如 AI 网关。

它现在有两个额外的节点,用于身份验证和连接到 DeepSeek 的模型:

  • DeepSeek Authenticator 通过允许用户选择包含有效 DeepSeek API 密钥的凭证来对所有 DeepSeek 模型进行身份验证。可以在工作流级别设置凭据,也可以在工作流中创建凭据(例如,使用 Credentials Configuration 节点),并通过流变量馈送到此节点。
    • 在高级设置中,该节点还支持输入基 URL。例如,对于可通过 Ollama 访问的模型,可以指定本地主机的 URL 并在本地使用它们。
  • DeepSeek 聊天模型连接器与可用 DeepSeek 模型的预定义列表建立连接。该节点允许用户定义模型温度和最大令牌。

如何在 KNIME 中使用 DeepSeek 的 V3 和 R1:身份验证、连接、提示

将 DeepSeek 的模型集成到 KNIME 的可视化工作流程中,我们遵循通常的身份验证、连接、提示方法。无论我们是通过官方 API 与 V3 和 R1 交互(通过即用即付定价政策提供可扩展的消费),还是使用 DeepSeek AI 发布的开源版本,都可以从 Hugging Face、Ollama 等存储库免费下载。

对于本地执行,DeepSeek 还发布了 R1 的六个“提炼”开源版本(包括阿里巴巴的 Qwen-2.5),参数范围从 1.5 到 700 亿个不等。

以下示例展示了如何通过 3 个步骤在 KNIME 中访问 DeepSeek-R1。

步骤 1 :对 DeepSeek API 进行身份验证或建立到 Ollama 的网关

对 DeepSeek API 进行身份验证

  • 首先,在 DeepSeek AI 上创建一个帐户并生成一个 API 密钥。
  • 在 Credential Configuration 节点的 password 字段中输入 API 密钥(用户名将被忽略)。
  • 现在,在 DeepSeek Authenticator 中选择此凭证作为流变量,并执行节点以完成身份验证。
在 DeepSeek Authenticator 节点中提供 API 密钥。

建立通往 Ollama 的门户

在我们的机器上设置 Ollama 并免费下载 DeepSeek-R1(例如 7B)后,第一步涉及建立到 Ollama 服务器的网关。

  • 使用 DeepSeek Authenticator 节点通过 Ollama 与 OpenAI 的内置兼容性设置到 Ollama 服务器的网关。为什么与 OpenAI 的兼容性相关?因为 DeepSeek API 依赖于 OpenAI 客户端。
  • 指定本地主机 URL 并连接到您的首选 LLM。在这里,我们连接到 DeepSeek-R1。
  • 在 Credential Configuration 节点的 password 字段中输入虚拟凭证(用户名将被忽略)。这仅对 DeepSeek Authenticator 节点中的底层 OpenAI 客户端是必需的。
  • 在 DeepSeek Authenticator 中选择此虚拟凭证作为流变量,并通过在“高级设置”下的相应字段中指定本地主机的“基本 URL”将其配置为连接到 Ollama 服务器:http://localhost:11434/v1
    • 您可以在 Ollama 关于 OpenAI 兼容性的新闻稿中找到本地主机的基本 URL。

步骤 2 步:连接到 DeepSeek 的 R1

  • 拖放 DeepSeek Chat Model Connector 节点,并将输入端口与 DeepSeek Authenticator 节点的输出端口链接。
  • 在连接器节点的配置中,选择模型,指定温度并保留最大令牌数的默认设置。

提示: 请记住,推理模型通常需要更多标记来生成响应,因为它们会以详细、分步的方式呈现答案。设置较高的 max 令牌数有助于防止截断输出。

步骤 3 :提示推理模型

查询 R1

  • 在 Table Creator (表创建者) 节点中键入您的提示。在更复杂的场景中,使用 Expression (表达式) 节点键入提示并设置其格式,同时考虑数据集中的列和值。
  • 拖放 LLM Prompter 节点。此节点接收模型连接和提示作为输入,生成模型的响应作为输出。响应显示在单独的列中,该列可以根据需要命名。