分类: AI/ML

10 篇文章

【转载】Jupyter Notebook转Markdown简易脚本
来源:https://stmorse.github.io/journal/notebook-converter.html Written on April 7th, 2024 by Steven Morse 全文请查看原链接 To run this, just make sure the converter.py script …
Ollama默认模型存储路径
Where are models stored: macOS: ~/.ollama/models. Linux: /usr/share/ollama/.ollama/models. Windows: C:\Users<username>.ollama\models. FYI
使用Vllm在docker中运行qwen2.5-vl系列模型
目前最新版vllm docker镜像还不完美支持qwen2.5-vl,你需要手动更新transformer库并更新bnb量化相关代码。如果你想轻松运行量化/全尺寸模型,都可以使用我重新打包的模型 If any of you interested in trying this model with or without quanization in …
Docker多gpu运行VLLM
sudo docker run --runtime nvidia --gpus '"device=0,1"' --ipc=host -p 18434:8000 \ -v hf_cache:/root/.cache/huggingface \ -e HF_ENDPOINT=https://hf-mirror.com \ -e HF_HUB_ENABL…
LLM性能快速测试prompt
A prompt openAI once used to show off o1-preview's capability. 测试结果: o1-preview: 完美完成(OpenAI号称) llama3.1:70b-instruct-q4_0: 可以运行,完成度很高,但存在细微bug qwen2.5-coder:32b-instruct-q4_K…
在Docker中配置GPU机器学习环境
简单的介绍 引用别人的:几个优点 可以单独配置开发环境,防止不同项目使用的环境配置不同而发生环境冲突问题 轻松配置不同的cuda/python/各种库的版本 充分保护主机环境不会因为环境搭建失误而发生系统崩溃 便于项目迁移和部署 具体步骤 写在前面,本人这里以ubuntu20.04 LTS为例,如果你是其他系统请留意安装中可能存在的不同 1. 安装…
使用命令行快速测试LLM API接口
示例代码: curl --location --request POST 'http://127.0.0.1:3000/v1/chat/completions' \ --header 'Authorization: Bearer sk-you-api-key' \ --header 'Content-Type: application/json' …
使用Ollama运行本地LLM的上下文参数详解
在使用Ollama进行API请求时,了解并正确设置上下文参数是至关重要的,尤其是当你需要处理长文本时。不同于一些常见的模型,Ollama的默认上下文窗口较小,例如llama3.1 70b模型默认仅有1k的上下文,其他很多模型也只有默认2k上下文。如果不加调整,在处理较长文本时,可能会遇到上下文溢出或者处理效率低下的问题。因此,在API请求中通过op…