在浅尝过调用gpt对接gpt-wechat机器人,和自行部署vllm+01Ai的大模型后,我们继续尝试用一些好用的工具帮我们快速经行大模型的微调。
基础环境还是由老朋友autodl来为我们提供。不多赘述,自行选择GPU和创建环境。进入jupyter lab打开一个终端,git 获取llamafactory的仓库内容。
用conda创建一个独立的环境
conda create -n llama_factory python=3.10
启动环境
conda activate llama_factory
在执行conda activate激活虚拟环境时报错:Your shell has not been properly configured to use ‘conda activate‘。并且按他的推荐先退出并重启shell再执行conda init
后仍无法解决。遂
source activate
conda deactivate
进入llama-factory文件夹,并安装依赖
cd LLaMA-Factory
pip install -e .[metrics]
安装完依赖后,执行以下命令打开webui,就可以开始简单的微调工作了。
另外,由于autodl实例没有公网IP,所以需要导入环境变量将端口设置为6006,内网6006端口的服务会被映射到autodl给你的外网端口上,以实现外网访问服务。具体请参见:https://www.autodl.com/docs/port/
LLama-factory微调的webui页面。
-------------------完-------------------