在本笔记本中,我们演示了使用 Boto3 SDK 对 Bedrock 中的 Llama2 13B 模型进行微调和配置。我们也可以通过 Bedrock 控制台来完成此操作。
在本笔记本中,我们构建了一个端到端的工作流程来微调和评估 Amazon Bedrock 中的基础模型 (FM)。我们选择 Meta Llama 2 13B
作为我们的 FM 来执行通过微调的定制,然后创建经过微调的模型的配置吞吐量、测试配置的模型调用,最后使用 fmeval
评估微调模型的性能,包括 METEOR、ROUGE 和 BERT 得分。我们在下面的 评估配置的自定义模型
部分中定义了这些得分。
本笔记本应该可以与
Data Science 3.0
、Python 3
和ml.c5.2xlarge
内核在 SageMaker Studio 中很好地配合使用
00_setup.ipynb
笔记本。00_setup.ipynb
笔记本相同的内核和实例。在本笔记本中,我们演示了使用 Boto3 SDK 对 Bedrock 中的 Llama2 13B 模型进行微调和配置。我们也可以通过 Bedrock 控制台来完成此操作。
安装并导入完成此笔记本所需的所有库和依赖项。
请忽略与 pip 的依赖项解析器相关的错误消息。
Meta Llama2 定制超参数:
epochs
: 通过整个训练数据集的迭代次数,可以取 1-10 之间的任意整数值,默认值为 2。batchSize
: 在更新模型参数之前处理的样本数,可以取 1-64 之间的任意整数值,默认值为 1。learningRate
: 每个批次后模型参数更新的速率,可以取 0.0-1.0 之间的浮点值,默认值设置为 1.00E-5。learningRateWarmupSteps
: 学习率逐步增加到指定速率的迭代次数,可以取 0-250 之间的任意整数值,默认值为 5。有关设置超参数的指南,请参考此处 提供的指南。
一旦微调作业完成,我们就可以检查现有的自定义模型并检索我们的微调 Llama2 模型的 modelArn。
现在我们已经完成了微调作业,让我们可视化我们的结果,看看我们的作业是否没有欠拟合或过拟合。
从 S3 下载模型定制作业指标并绘制学习曲线。
调用配置的自定义模型。我们可以用更类似于我们的微调数据集的提示替换以下 prompt_txt,这有助于检查微调模型是否按预期执行。