在浅尝过调用gpt对接gpt-wechat机器人,和自行部署vllm+01Ai的大模型后,我们继续尝试用一些好用的工具帮我们快速经行大模型的微调。

基础环境还是由老朋友autodl来为我们提供。不多赘述,自行选择GPU和创建环境。进入jupyter lab打开一个终端,git 获取llamafactory的仓库内容。

用conda创建一个独立的环境

conda create -n llama_factory python=3.10

启动环境

conda activate llama_factory

在执行conda activate激活虚拟环境时报错:Your shell has not been properly configured to use ‘conda activate‘。并且按他的推荐先退出并重启shell再执行conda init后仍无法解决。遂

source activate 
conda deactivate

进入llama-factory文件夹,并安装依赖

cd LLaMA-Factory

pip install -e .[metrics]

安装完依赖后,执行以下命令打开webui,就可以开始简单的微调工作了。

另外,由于autodl实例没有公网IP,所以需要导入环境变量将端口设置为6006,内网6006端口的服务会被映射到autodl给你的外网端口上,以实现外网访问服务。具体请参见:https://www.autodl.com/docs/port/

LLama-factory微调的webui页面。

-------------------完-------------------