自学内容网 自学内容网

AutoClass加载预训练实例

AutoClass

由于 Transformer 架构种类繁多,AtuoClass可以创建一个你想要的做模型架构。作为 🤗 Transformer 核心理念的一部分,使库易于使用、简单且灵活,可以AutoClass从给定的检查点自动推断和加载正确的架构。该from_pretrained()方法可让您快速加载任何架构的预训练模型,因此无需投入时间和资源从头开始训练模型。生成这种与检查点无关的代码意味着,如果代码适用于一个检查点,那么它将适用于另一个检查点,只要它是针对类似任务进行训练的即使架构不同。

AutoTokenizer

几乎每个 NLP 任务都以标记器开始。标记器将您的输入转换为模型可以处理的格式。都会使用AutoTokenizer.from_pretrained()加载标记器。

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("google-bert/bert-base-uncased")

sequence = "In a hole in the ground there lived a hobbit."
print(tokenizer(sequence))
# 结果
{'input_ids': [101, 1999, 1037, 4920, 1999, 1996, 2598, 2045, 2973, 1037, 7570, 10322, 4183, 1012, 102], 
 'token_type_ids': [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], 
 'attention_mask': [1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1]}

AutoImageProcessor

对于视觉任务,图像处理器将图像处理成正确的输入格式。

from transformers import AutoImageProcessor

image_processor = AutoImageProcessor.from_pretrained("google/vit-base-patch16-224")

AutoFeatureExtractor

from transformers import AutoFeatureExtractor

feature_extractor = AutoFeatureExtractor.from_pretrained(
    "ehcalabres/wav2vec2-lg-xlsr-en-speech-emotion-recognition"
)

AutoProcessor

多模态任务需要结合两种预处理工具的处理器。例如,LayoutLMV2模型需要图像处理器来处理图像,需要标记器来处理文本;处理器将两者结合起来。

from transformers import AutoProcessor

processor = AutoProcessor.from_pretrained("microsoft/layoutlmv2-base-uncased")

原文地址:https://blog.csdn.net/cancer_s/article/details/144292418

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!