https://gstreamer.freedesktop.org/data/pkg/
https://gstreamer.freedesktop.org/data/pkg/windows/

安装Markdown Preview Mermaid Support插件,支持多种流程图
https://developer.nvidia.com/cuda-downloads 在该页面下有历史版本入口
https://developer.nvidia.com/cuda-toolkit-archive

https://developer.nvidia.com/tensorrt download on official website or github.
choose the right package base on your GPU, it offer RTX/LLM/Cloud etc.
https://github.com/NVIDIA/TensorRT/releases Download to compile

https://developer.nvidia.com/cudnn-downloads
https://developer.nvidia.com/cudnn-archive

在VSCode中调试F5,其.vscode/launch.json有特殊编写要求的,经测试以下方式可行。
"version": "0.2.0",
"configurations": [
{
"name": "Debug wopay",
"type": "go",
"request": "launch",
"mode": "debug",
"program": "${workspaceFolder}/src",
"cwd": "${workspaceFolder}",
"output": "${workspaceFolder}/wopay",
"showLog": true,
"trace": "verbose",
"buildFlags": "-o ${workspaceFolder}/wopay",
"env": {
"GOPATH": "${workspaceFolder}",
"GO111MODULE": "off"
}
},
{
"name": "Debug wopay (with modules)",
"type": "go",
"request": "launch",
"mode": "debug",
"program": "${workspaceFolder}/src",
"cwd": "${workspaceFolder}",
"output": "${workspaceFolder}/wopay",
"showLog": true,
"trace": "verbose",
"buildFlags": "-o ${workspaceFolder}/wopay"
}
]
}

以上的边框如何去除呢?
这是visual studio code会自动为非ANSII字体增加边框,若需要移除,步骤如下:
修改C:\Users\honey\AppData\Roaming\Code\User\settings.json文件。
增加如下编码:
“editor.unicodeHighlight.nonBasicASCII”: false, “editor.unicodeHighlight.ambiguousCharacters”: false

直接安装json-color-token插件,即可以实现颜色小方块的显示。

针对显卡性能,如我卡为16G,故不选择HiDream的模型
如何选择例子学习

学习ComfyUI的例子时,通常情况下,如果模型不存在,它会给一下下载网址的下载提示,但如果不提示呢?如何去哪里下载呢?请看以下信息
在模型地址中,每个工作流程均附带了相关模型的下载地址:
G:\ComfyUI-v0.3.34\python_embeded\Lib\site-packages\comfyui_workflow_templates\templates


XDG_CACHE_HOME=F:\bigmodel-cache
HF_HOME %XDG_CACHE_HOME%\huggingface
TRANSFORMERS_CACHE %HF_HOME%\transformers
HF_DATASETS_CACHE %HF_HOME%\datasets
HF_TOKENIZERS_CACHE %HF_HOME%\tokenizers
TORCH_HOME %XDG_CACHE_HOME%\torch
DIFFUSERS_CACHE %HF_HOME%\diffusers
OLLAMA_MODELS %XDG_CACHE_HOME%\ollama
pip和conda的其都具体包管理的能力,但其区别有如下:
1.conda是强依赖,而pip是弱依赖。故conda方式安装组件时,它会替换pip的组件,而pip则不会替换已经安装的组件,除非你显式指定版本。
2.conda在创建虚拟环境的同时,可指定该虚拟环境的python版本,则pip是无法指定其它python版本的。
3.在编译环境上,conda相对pip更完善,在windows中,这编译环境的集成能力会是明显的优势。
综上所述,最佳的建议如下:
采用conda创建最基本的虚拟环境后,利用pip再安装其它依赖,尽量后续交替使用pip安装依赖包。
初始化一个通用的编译工具链虚拟环境。
#创建一个python版本为3.10的虚拟环境。
conda create -n xxxx python=3.10xy
pip install --upgrade pip setuptools wheel
# python.exe -m pip install --upgrade pip setuptools wheel
#创建通用编译工具链环境,这样可以安全构建本地环境没有的软件包,如果系统安装了VS2019则会将vs2019加入环境等。
conda install -c conda-forge compilers cmake ninja cython pybind11
#在windows中因为环境设置因素,可能找不到工具链,如如下:
call "C:\Program Files (x86)\Microsoft Visual Studio\2019\Community\VC\Auxiliary\Build\vcvarsall.bat" x64
——————————————————
经大量测试表明,conda模式,只适合RTX40系列旧显卡,不适合RTX50系列及更新显卡。
原因是pip和conda的包管理其机制不相同,会出一些奇怪问题,如下描述
1.当前conda原生包对RTX50系列,最新只支持到12.4,不能解决本人5060Ti的问题。
2.用conda安装或更新某个组件时,会出现把pip先前安装的包替换成其它版本,从而产生新问题。
3.用pip安装或更新的组件,会覆盖conda的包,有时也会产生新问题,导致异常问题。
venv 简单轻便,适合纯 Python 项目;conda 强大灵活,是科学计算和跨平台开发的首选。
Miniconda 是最小化版本,只带了基本的 conda 和 python 环境,其他库需要你按需安装.
https://repo.anaconda.com/miniconda/
https://repo.anaconda.com/miniconda/Miniconda3-py39_25.3.1-1-Windows-x86_64.exe

#据说是不需要安装该项的,因pytorch已经包含了它,可以先跳过这步骤,继续操作后续步骤后,再根据实际情况分析,是否有必要安装该工具。
https://developer.nvidia.com/cuda-toolkit

如果是RTX50系列新卡,目前conda的软件源中的pytorch是没有适配的,故必须至https://pytorch.org/其官网,了解其应该如何安装。
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128 #对于本的5060Ti的显卡,只有这种方式能正确安装,其它方式均失败,并报不兼容错误。

conda create --name tortoise python=3.9 numba inflect
conda activate tortoise
conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia #RTX40系列的显卡,可以使用这种方式安装。
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128 #RTX50系列的显卡,正确安装方式。
python -c "import torch; print(torch.version.cuda); print(torch.cuda.is_available()); print(torch.cuda.get_device_name(0))"
在项目初始阶段开启全局代理很重要,因为某些库在深层处会联外网,从而导致失败。
在项目初始阶段开启全局代理很重要,因为某些库在深层处会联外网,从而导致失败。
在项目初始阶段开启全局代理很重要,因为某些库在深层处会联外网,从而导致失败。
由于机器学习及大模型很多库都是国外的,尤其是模型文件如huggingface时,采用全局代理省去很多事。
以上是中科院的conda的镜像,像阿里云及清华等均无法打开或不提供相应服务,故添加需慎重。有时这些加速镜也极不靠谱。极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱极不靠谱
conda config --add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/main/
conda config --add channels https://mirrors.ustc.edu.cn/anaconda/cloud/conda-forge/
conda config --add channels https://mirrors.ustc.edu.cn/anaconda/cloud/bioconda/
conda config --set show_channel_urls yes
conda config --show channels
conda config --show-sources
conda config --remove channels https://mirrors.aliyun.com/anaconda/pkgs/pro