我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。
歡迎瀏覽我們的案例。
英偉達是硬件領(lǐng)域的生成型人工智能之王,該公司的 GPU 為微軟、OpenAI 等公司的數據中心提供動(dòng)力,運行著(zhù) Bing Chat、ChatGPT 等人工智能服務(wù)。今天,英偉達宣布了一款新的軟件工具,旨在提升大型語(yǔ)言模型(LLM)在本地 Windows PC 上的性能。
在一篇博客文章中,英偉達宣布了其 TensorRT-LLM 開(kāi)源庫,這個(gè)庫之前是為數據中心發(fā)布的,現在也可以用于 Windows PC。最大的特點(diǎn)是,如果 Windows PC 配備英偉達 GeForce RTX GPU,TensorRT-LLM 可以讓 LLM 在 Windows PC 上的運行速度提高四倍。
英偉達在文章中介紹了 TensorRT-LLM 對開(kāi)發(fā)者和終端用戶(hù)的好處:
在更大的批量大小下,這種加速可顯著(zhù)改善更復雜的 LLM 使用體驗,如寫(xiě)作和編碼助手,可同時(shí)輸出多個(gè)唯一的自動(dòng)完成結果,從而加速性能并改進(jìn)質(zhì)量,讓用戶(hù)可以有最好的選擇。
博客文章展示了一個(gè) TensorRT-LLM 的例子。當向 LLaMa 2 基礎模型提出“《心靈殺手 2》集成了 NVIDIA 的哪些技術(shù)?”這一問(wèn)題時(shí),它給出“游戲尚未公布”這一毫無(wú)幫助的回答。相反,使用 RAG 將 GeForce 新聞添加到向量庫中,并連接到相同的 Llama2 模型,不僅得到正確答案 ——NVIDIA DLSS 3.5、NVIDIA Reflex 和全景光線(xiàn)追蹤,而且在 TensorRT-LLM 加速的助力下響應速度更快。這種速度與能力的結合為用戶(hù)提供更智能的解決方案。
TensorRT-LLM 很快就會(huì )在英偉達的開(kāi)發(fā)者網(wǎng)站上提供。
英偉達今天還在新的 GeForce 驅動(dòng)更新中增加了一些基于人工智能的功能。其中包括新的 1.5 版本的 RTX Video Super Resolution 功能,可以在觀(guān)看在線(xiàn)視頻時(shí)提供更好的分辨率提升效果和更少的壓縮效果。英偉達還為 Stable Diffusion Web UI 增加了 TensorRT 人工智能加速功能,讓擁有 GeForce RTX GPU 的用戶(hù)可以比正常情況下更快地從人工智能圖片生成器那里獲得圖像。
英偉達推出 Tensor RT-LLM,使大語(yǔ)言模型在搭載 RTX 的 PC 平臺上運行速度提高 4 倍 08:56:22
比亞迪海豹車(chē)型登陸澳大利亞市場(chǎng),比特斯拉 Model 3 便宜約 12000 澳元 08:49:35
印度計劃在 2035 年前研制出本國空間站,并在 2040 年前實(shí)現載人登月 08:45:58
華為Mate 60/Pro推送全新鴻蒙OS 4更新:新增人像AI云增強 拍照更美了 08:38:03
吉利銀河 E8 純電轎車(chē)官圖發(fā)布:溜背設計,搭載 45 英寸 8K 大屏 10:27:03
小米推出全新操作系統澎湃 OS:小米 14 系列將率先搭載,逐步接替 MIUI 10:24:33