心流logo

device_map配置指定显卡

device_map配置指定显卡

在Transformers库中,device_map参数用于指定模型中的各个部分应该加载到哪个具体的计算设备上,这对于实现资源的有效分配和利用非常有用。以下是关于如何配置device_map以指定使用特定显卡的详细说明:

1. 配置device_map

2. 不同device_map选项

3. 注意事项

4. 示例代码

import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0, 1'
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig

# 加载模型
model_path = "./model/chatglm2-6b"
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
model = AutoModel.from_pretrained(model_path, trust_remote_code=True, device_map="auto")

# 输入文本
text = '什么是机器学习。'
inputs = tokenizer(text, return_tensors="pt")

# 输出结果
outputs = model.generate(**inputs, max_new_tokens=50