当前位置:首页 >文章发布 > 正文
NVIDIA推出Chat With RTX 本地部署版本ChatGPT
来源:ZAKER 作者:
佚名
2024-02-18 09:25:41
NVIDIA 近日推出了 Chat With RTX,这个应用相当于本地部署的 ChatGPT,由 GPU 提供算力支持。要求的话,需要至少 8GB 显存的 RTX 30 或 40 系列显卡。
NVIDIA 近日推出了 Chat With RTX,这个应用相当于本地部署的 ChatGPT,由 GPU 提供算力支持。要求的话,需要至少 8GB 显存的 RTX 30 或 40 系列显卡。
尽管 Chat With RTX 并非英伟达自己研发的大语言模型(LLM),但它背后所依靠的 Mistral 和 Llama 2 两款开源 LLM 却颇具实力。用户可以根据喜好自行选择使用哪款 LLM。此外,Chat With RTX 还支持多种文件类型,包括 txt、.pdf、.doc/.docx 和 .xml,方便用户上传本地文件进行聊天。
值得一提的是,Chat With RTX 还具有根据在线视频做回答的功能。用户只需将视频链接提供给 Chat With RTX,它便能迅速根据视频内容生成答案,为用户带来全新的聊天体验。
免责声明:本文系网络转载,版权归原作者所有。本文所用图片、文字如涉及作品版权问题,请联系删除!本文内容为原作者观点,并不代表本网站观点。
编辑:乔帅臣