
IT之家获悉,“Chat with RTX”聊天机器人被设计为一个本地化系统,用户无需上网便可使用,所有具有至少 8 GB 显存的 GeForce RTX 30 和 40 GPU 都支持该应用程序。
Chat with RTX 支持多种文件格式,包括文本、pdf、doc / docx 和 xml。只需将应用程序指向包含文件的文件夹,它就会在几秒钟内将它们加载到库中。此外,用户还可以提供 YouTube 播放列表的 URL,该应用程序将加载播放列表中视频的转录,使用户能够查询它们涵盖的内容。
从官方描述来看,用户可以通过不同的查询,与使用 ChatGPT 相同的方式使用 Chat With RTX,但生成的结果将完全基于特定数据集,似乎更适用于生成摘要、快速搜索文档等操作。

拥有支持 TensorRT-LLM 的 RTX GPU 意味着用户将在本地使用所有数据和项目,而不是将它们保存在云中,这将节省时间并提供更精确的结果。
英伟达表示,TensorRT-LLM v0.6.0 将性能提升 5 倍,将于本月晚些时候推出。此外,它还将支持其他 LLM,如 Mistral 7B 和 Nemotron 3 8B。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
未经允许不得转载:新聚网 » 英伟达推出 RTX 聊天机器人,可在 RTX 30 和 40 GPU 上免费使用

新聚网
哈佛大学开源 AI 训练数据集“Institutional Books 1.0”,涵盖馆藏 98.3 万本图书
Android XR 智能眼镜 XREAL Project Aura 重要参数公布:双芯驱动,70+° FoV
全球首个儿科大模型在北京荣华医院落地,诊断准确率优于主治医师平均水平
小米米家前开盖旅行箱 18 英寸开启众筹,369 元
共建韩国最大 AI 数据中心、容纳 6 万个 GPU,亚马逊 AWS 与 SK 集团合作
OpenAI Codex 人工智能编程工具推出新功能:可一次生成多个方案
性能提升 90%,Anthropic 首次公开多智能体系统构建全流程





