分类: AI/ML

15 篇文章

实时语音对话与打断语言模型运行机制调研报告(By GPT DeepResearch)
简要概述 OpenAI ChatGPT语音交互:OpenAI通过将大型语言模型(ChatGPT)与语音输入输出模块相结合,实现了语音对话功能。用户说话时,系统利用Whisper语音识别模型将语音转录成文本供ChatGPT理解,然后由ChatGPT生成回答文本,再通过新一代TTS(文本转语音)模型将回答朗读出来。该方案本质上还是串联管线:语音->…
Nvidia Jetson Ollama安装
注意:Ollama官方容器不支持Jetson的GPU,需使用Step3的容器 Step1: check version cat /etc/nv_tegra_release Typical output: # R36 (release), REVISION: 4.0, GCID: 37976356, BOARD: t23x # DATE: 2025-…
Quest3手追解析并控制灵巧手
配置 Unity XR Toolkit + XR Hands 基础配置参考: https://youtu.be/mJ3fygb9Aw0?si=ubO0ELPzcc2Ohvcf 代码 我目前测试的的灵巧手是Curl(握紧/绷直)5个自由度(绳驱)+ Spread(侧向张开)5个自由度(电机驱动)。 Unity XR Hands自带5指curl和食指、…
【转载】Jupyter Notebook转Markdown简易脚本
来源:https://stmorse.github.io/journal/notebook-converter.html Written on April 7th, 2024 by Steven Morse 全文请查看原链接 To run this, just make sure the converter.py script …
Ollama默认模型存储路径
Where are models stored: macOS: ~/.ollama/models. Linux: /usr/share/ollama/.ollama/models. Windows: C:\Users<username>.ollama\models. FYI
使用Vllm在docker中运行qwen2.5-vl系列模型
目前最新版vllm docker镜像还不完美支持qwen2.5-vl,你需要手动更新transformer库并更新bnb量化相关代码。如果你想轻松运行量化/全尺寸模型,都可以使用我重新打包的模型 If any of you interested in trying this model with or without quanization in …
Docker多gpu运行VLLM
sudo docker run --runtime nvidia --gpus '"device=0,1"' --ipc=host -p 18434:8000 \ -v hf_cache:/root/.cache/huggingface \ -e HF_ENDPOINT=https://hf-mirror.com \ -e HF_HUB_ENABL…