AWS Certified Generative AI Developer - Professional (AIP-C01) 考试大纲详解

这份文档基于官方考试指南,对 AWS Certified Generative AI Developer - Professional 认证的五大领域、具体任务和技能要求进行了结构化整理和要点解析,旨在系统化地理解和掌握考试范围。

AWS Certified Generative AI Developer - Professional


Summary

该认证的核心是围绕 Amazon Bedrock 这一全托管服务,并整合 AWS 广泛的 AI/ML 与云服务栈(如 SageMaker、Lambda、Step Functions 等),贯穿生成式AI应用的全生命周期。它强调从解决方案架构出发,涵盖基础模型选择与定制、数据工程与检索增强生成(RAG)、提示工程与智能体(Agent)开发,到企业集成、安全治理、成本性能优化,以及最终的测试验证与故障排除。认证要求考生不仅掌握技术实现,更需深刻理解如何在企业环境中实施负责任的AI原则,确保解决方案的安全性、合规性、可靠性与成本效益。

总而言之,该认证标志着持有者具备在 AWS 云上端到端交付生产级、企业就绪的生成式AI应用程序所需的深度知识与实战技能。

[TOC]

概述

领域 分项 分项要点 考试占比
1 基础模型集成、数据管理与合规性 31%
1.1 分析需求与设计
1.2 配置基础模型
1.3 数据流水线
1.4 向量存储
1.5 增强检索机制
1.6 提示词工程
2 实施与集成 26%
2.1 智能体AI解决方案与工具集成
2.2 模型部署策略
2.3 企业级集成架构
2.4 基础模型 API 集成
2.5 应用程序集成模式与开发工具
3 AI 的安全、保障与治理 20%
3.1 输入与输出安全控制
3.2 数据安全与隐私控制
3.3 AI 治理与合规机制
3.4 负责任的 AI 原则
4 生成式 AI 应用的运营效率与优化 12%
4.1 成本优化
4.2 优化性能
4.3 监控系统
5 测试、验证与故障排除 11%
5.1 评估系统
5.2 故障排除
总计 100%

(一)内容领域 1:基础模型集成、数据管理与合规

任务 1.1:分析需求并设计生成式人工智能解决方案

编号 描述 关键要点/AWS服务示例
1.1.1 制定全面的架构设计 根据业务需求和技术约束选择合适的基础模型、集成模式、部署策略。
1.1.2 开发技术概念验证 (PoC) 使用 Amazon Bedrock 等工具在全面部署前验证可行性、性能及业务价值。
1.1.3 创建标准化技术组件 遵循 AWS Well-Architected FrameworkGenerative AI Lens,确保跨部署场景的一致性。

任务 1.2:选择并配置基础模型(FMs)

编号 描述 关键要点/AWS服务示例
1.2.1 评估并选择基础模型 基于性能基准、能力分析和局限性评估,匹配业务用例。
1.2.2 制定灵活架构模式 使用 AWS LambdaAPI GatewayAWS AppConfig 实现动态模型选择和提供商切换,无需修改代码。
1.2.3 设计具备弹性的AI系统 使用 AWS Step Functions 断路器模式、Bedrock 跨区域推理、跨区域部署、优雅降级策略应对服务中断。
1.2.4 实施模型定制化与生命周期管理 使用 Amazon SageMaker 部署微调模型,应用 LoRA 等高效适配技术,利用 SageMaker Model Registry 进行版本控制和自动化流水线。

任务 1.3:为基础模型调用实施数据验证与处理流水线

编号 描述 关键要点/AWS服务示例
1.3.1 创建数据验证工作流 使用 AWS Glue Data QualitySageMaker Data Wrangler、自定义 LambdaCloudWatch 确保数据质量。
1.3.2 处理复杂数据类型 使用 Bedrock 多模态模型SageMaker ProcessingAWS Transcribe 处理文本、图像、音频、表格数据。
1.3.3 格式化输入数据 Bedrock API 准备 JSON,为 SageMaker Endpoint 准备结构化数据,处理对话格式。
1.3.4 提升输入数据质量 使用 Bedrock 重新格式化、Amazon Comprehend 提取实体、Lambda 标准化数据以改善模型响应。

任务 1.4:设计并实施向量存储解决方案

编号 描述 关键要点/AWS服务示例
1.4.1 创建高级向量数据库架构 使用 Amazon Bedrock Knowledge Base、带 Neural plugin 的 Amazon OpenSearch ServiceAmazon RDSS3 集成、带向量功能的 DynamoDB
1.4.2 开发元数据框架 利用 S3 对象元数据、自定义属性、标签系统提升搜索精度和上下文感知。
1.4.3 实施高性能向量数据库架构 优化 OpenSearch 分片策略,采用多索引、分层索引技术以支持大规模语义搜索。
1.4.4 创建集成组件 使用 AWS 服务连接文档管理系统、知识库等资源,实现全面的数据集成。
1.4.5 设计数据维护系统 实施增量更新、实时变更检测、自动化同步和定时刷新流水线,确保向量存储信息最新。

任务 1.5:设计用于基础模型增强的检索机制

编号 描述 关键要点/AWS服务示例
1.5.1 开发文档分段方法 使用 Bedrock 分块功能Lambda 固定大小分块、自定义分层分块以优化检索性能。
1.5.2 选择并配置 Embedding 方案 根据维度和领域适配性选择 Amazon Titan Embeddings 或其他模型,使用 Lambda 批量生成向量。
1.5.3 部署向量搜索解决方案 使用 OpenSearch Service、带 pgvectorAuroraBedrock Knowledge Base 的向量存储功能。
1.5.4 创建高级搜索架构 结合语义搜索(OpenSearch)、混合搜索(关键词+向量)、使用 Bedrock 重排序模型提升相关性。
1.5.5 开发复杂查询处理系统 使用 Bedrock 进行查询扩展,Lambda 进行查询分解,Step Functions 进行查询转换。
1.5.6 创建统一访问机制 通过函数调用接口、模型上下文协议 (MCP) 客户端、标准化 API 模式实现与基础模型的无缝集成。

任务 1.6:为基础模型交互实施提示工程策略与治理

编号 描述 关键要点/AWS服务示例
1.6.1 制定模型指令框架 使用 Amazon Bedrock Prompt ManagementGuardrails 定义角色、执行责任AI指南、配置响应格式。
1.6.2 构建交互式 AI 系统 使用 Step Functions 实现澄清工作流,Amazon Comprehend 进行意图识别,DynamoDB 存储对话历史。
1.6.3 实施提示管理与治理系统 使用 Bedrock Prompt Management 创建参数化模板和审批工作流,S3 存储模板,CloudTrailCloudWatch Logs 跟踪使用。
1.6.4 开发质量保证系统 使用 Lambda 验证输出,Step Functions 测试边缘案例,CloudWatch 进行提示回归测试。
1.6.5 提升基础模型性能 通过结构化输入、输出格式规范、思维链 (Chain-of-Thought) 指令、反馈循环等迭代优化提示。
1.6.6 设计复杂提示系统 使用 Amazon Bedrock 提示流 实现顺序链、条件分支、可复用组件,集成预处理与后处理步骤。

(二)内容领域 2:实施与集成

任务 2.1:实施智能体人工智能解决方案与工具集成

编号 描述 关键要点/AWS服务示例
2.1.1 开发智能自主系统 使用 Strands AgentsAWS Agent Squad 构建多智能体系统,利用 MCP 实现智能体-工具交互。
2.1.2 创建高级问题解决系统 使用 Step Functions 实施 ReAct 模式和思维链推理。
2.1.3 开发安全的AI工作流 使用 Step FunctionsLambda 实施停止条件、超时机制、IAM policies 和断路器。
2.1.4 创建模型协调系统 为专门任务使用特定模型,制定自定义聚合逻辑,构建模型选择框架。
2.1.5 开发协同式AI系统 使用 Step Functions 编排审核流程,API Gateway 收集反馈,采用人类增强模式。
2.1.6 实施智能工具集成 使用 Strands API 定义自定义行为,制定标准化函数定义,用 Lambda 处理错误和验证参数。
2.1.7 开发模型扩展框架 使用 Lambda 实现轻量级 MCP 服务器,使用 Amazon ECS 实现复杂工具服务器,使用 MCP 客户端库。

任务 2.2:实施模型部署策略

编号 描述 关键要点/AWS服务示例
2.2.1 根据需求部署基础模型 使用 Lambda 按需调用,Bedrock 预置吞吐量配置SageMaker 终端节点
2.2.2 解决 LLM 部署的独特挑战 针对内存、GPU 利用率和 Tokens 处理,优化容器化部署和模型加载策略。
2.2.3 开发优化的部署方法 为特定任务选择较小的预训练模型,使用基于 API 的模型级联处理常规查询以平衡性能与成本。

任务 2.3:设计并实施企业级集成架构

编号 描述 关键要点/AWS服务示例
2.3.1 创建企业级连接解决方案 使用基于 API 的集成连接遗留系统,采用事件驱动架构和数据同步模式。
2.3.2 开发集成式 AI 能力 使用 API Gateway 集成微服务,Lambda 处理 Webhook,Amazon EventBridge 驱动事件。
2.3.3 创建安全访问框架 使用身份联合、基于角色的访问控制 (RBAC)、最小权限原则保护模型和数据访问。
2.3.4 开发跨环境 AI 解决方案 使用 AWS OutpostsAWS Wavelength 满足数据驻留和合规要求,建立云边安全路由。
2.3.5 实施 CI/CD 流水线和网关 使用 AWS CodePipelineCodeBuild 自动化部署与测试,建立集中式生成式AI网关进行抽象和控制。

任务 2.4:实施基础模型 API 集成

编号 描述 关键要点/AWS服务示例
2.4.1 创建灵活的模型交互系统 使用 Bedrock API 同步请求,AWS SDKAmazon SQS 异步处理,API Gateway 验证请求。
2.4.2 开发实时 AI 交互系统 使用 Bedrock streaming APIWebSocket 或 Server-Sent Events (SSE)、API Gateway 分块传输实现流式响应。
2.4.3 创建具备弹性的基础模型系统 使用 AWS SDK 实现指数退避重试,API Gateway 管理速率限制,优雅降级,AWS X-Ray 提供可观测性。
2.4.4 开发智能模型路由系统 应用程序代码静态路由,Step Functions 动态内容路由,API Gateway 实现基于指标的智能路由和请求转换。

任务 2.5:实施应用程序集成模式与开发工具

编号 描述 关键要点/AWS服务示例
2.5.1 创建基础模型 API 接口 处理流式响应、管理令牌限制、实施针对模型超时的重试策略。
2.5.2 开发易用的 AI 接口 使用 AWS Amplify 构建声明式 UI,采用 API 优先开发,使用 Amazon Bedrock Prompt Flows 无代码构建工作流。
2.5.3 创建业务系统增强功能 使用 Lambda 增强 CRM,Step Functions 编排文档处理,Amazon Q Business 提供内部知识工具,Bedrock 自动化数据工作流。
2.5.4 提升开发者效率 使用 Amazon Q Developer 生成和重构代码,提供 API 辅助的代码建议和性能优化。
2.5.5 开发高级生成式AI应用程序 使用 Strands AgentsAWS Agent Squad 实现原生编排,Step Functions 编排智能体,Bedrock 管理提示链。
2.5.6 提高故障排除效率 使用 CloudWatch Logs Insights 分析提示与响应,X-Ray 跟踪 API 调用,Amazon Q Developer 识别错误模式。

(三)内容领域 3:AI 安全、安全性与治理

任务 3.1:实施输入与输出安全控制

编号 描述 关键要点/AWS服务示例
3.1.1 开发内容安全系统(输入) 使用 Amazon Bedrock guardrails 过滤内容,Step FunctionsLambda 自定义审核,实施实时验证。
3.1.2 创建内容安全框架(输出) 使用 Bedrock guardrails 过滤响应,专门模型评估毒性,文本转 SQL 确保确定性。
3.1.3 开发准确性验证系统 使用 Bedrock Knowledge Base 进行事实核查,置信度评分,JSON Schema 强制结构化输出以减少幻觉。
3.1.4 创建深度防御安全系统 组合 Amazon Comprehend 预处理、Bedrock 模型护栏、Lambda 后处理验证、API Gateway 响应过滤。
3.1.5 实施高级威胁检测 使用 Prompt Injection 和越狱检测机制,输入清理,安全分类器,自动化对抗性测试工作流。

任务 3.2:实施数据安全与隐私控制

编号 描述 关键要点/AWS服务示例
3.2.1 开发受保护的 AI 环境 使用 VPC 终端节点隔离网络,IAM 策略控制访问,AWS Lake Formation 精细数据权限,CloudWatch 监控。
3.2.2 开发隐私保护系统 使用 Amazon ComprehendMacie 检测 PII,Bedrock 原生隐私功能,Guardrails 过滤输出,S3 Lifecycle 管理数据保留。
3.2.3 创建以隐私为中心的 AI 系统 实施数据掩码,使用 Comprehend PII 检测,匿名化策略,Bedrock guardrails

任务 3.3:实施 AI 治理与合规机制

编号 描述 关键要点/AWS服务示例
3.3.1 开发合规框架 使用 SageMaker 生成 Model Cards,AWS Glue 跟踪数据血缘,元数据标签归因,CloudWatch Logs 记录决策。
3.3.2 实施数据源跟踪 使用 AWS Glue Data Catalog 注册数据源,元数据标签归因,CloudTrail 审计日志。
3.3.3 创建组织级治理系统 构建符合组织政策、监管要求和负责任AI原则的全面架构。
3.3.4 实施持续监控和治理控制 自动化检测滥用、漂移和违规,监控偏差,设置自动化告警和修复,实施令牌级脱敏和响应日志记录。

任务 3.4:实施负责任的 AI 原则

编号 描述 关键要点/AWS服务示例
3.4.1 开发透明的 AI 系统 提供推理展示和证据展示,使用 CloudWatch 收集置信度指标,利用 Bedrock agent tracing 提供推理轨迹。
3.4.2 应用公平性评估 使用 CloudWatch 预定义指标,Bedrock Prompt ManagementFlow 进行 A/B 测试,使用 LLM-as-a-judge 自动化评估。
3.4.3 开发符合政策的 AI 系统 使用 Bedrock guardrails 实施政策要求,使用 Model Cards 记录局限性,Lambda 自动化合规检查。

(四)内容领域 4:生成式人工智能应用的运营效率与优化

任务 4.1:实施成本优化与资源效率策略

编号 描述 关键要点/AWS服务示例
4.1.1 开发 Tokens 效率系统 估算和跟踪令牌使用,优化上下文窗口,控制响应大小,实施提示压缩和上下文修剪。
4.1.2 创建成本效益模型选择框架 评估成本-能力模型,基于查询复杂度分层使用模型,衡量性价比,采用高效推理模式。
4.1.3 开发高性能系统 使用批处理策略,容量规划,利用率监控,自动扩展,优化预置吞吐量配置。
4.1.4 创建智能缓存系统 实施语义缓存,结果指纹识别,边缘缓存,确定性请求哈希,提示缓存。

任务 4.2:优化应用程序性能

编号 描述 关键要点/AWS服务示例
4.2.1 创建响应式 AI 系统 预计算可预测查询,使用延迟优化的 Bedrock 模型,并行请求,流式传输响应,进行性能基准测试。
4.2.2 提升检索性能 优化索引,预处理查询,实施带有自定义评分的混合搜索。
4.2.3 实施吞吐量优化 优化令牌处理,使用批处理推理策略,管理并发模型调用。
4.2.4 提升基础模型性能 配置模型特定参数(如 temperature, top-k/p),通过 A/B 测试评估效果。
4.2.5 创建高效的资源分配系统 针对令牌处理进行容量规划,监控提示和完成模式的利用率,优化自动扩展配置。
4.2.6 优化工作流性能 分析 prompt-completion API 调用,优化向量数据库查询,应用降低延迟的技术,采用高效的服务通信模式。

任务 4.3:实施生成式人工智能应用的监控系统

编号 描述 关键要点/AWS服务示例
4.3.1 创建全面的可观测性系统 跟踪运营指标、性能、模型交互和业务影响指标,使用自定义仪表板。
4.3.2 实施全面的监控系统 使用 CloudWatch 跟踪令牌使用、提示有效性、幻觉率,使用 Bedrock Model Invocation Logs 分析请求/响应,进行异常检测和成本监控。
4.3.3 开发集成式可观测性方案 整合运营仪表板、业务可视化、合规监控、审计日志和用户交互跟踪。
4.3.4 创建工具性能框架 跟踪调用模式,收集性能指标,监控工具调用和多智能体协同,设定使用基准。
4.3.5 创建向量存储运营管理系统 监控向量数据库性能,自动化索引优化,实施数据质量验证流程。
4.3.6 开发针对基础模型的故障排除框架 使用 Golden Datasets 检测幻觉,使用输出差异分析 (Output Diffing),跟踪推理路径,建立专门的可观测性流水线。

(五)内容领域 5:测试、验证与故障排除

任务 5.1:实施生成式人工智能的评估系统

编号 描述 关键要点/AWS服务示例
5.1.1 开发全面的评估框架 使用相关性、事实准确性、一致性和流畅性等指标评估模型输出。
5.1.2 创建系统化模型评估系统 使用 Amazon Bedrock Model Evaluations、A/B测试、金丝雀测试、多模型评估,衡量令牌效率、延迟-质量比和成本-性能。
5.1.3 开发以用户为中心的评估机制 收集用户反馈,建立评分系统,使用标注工作流评估响应质量。
5.1.4 创建系统化的质量保证流程 实施持续评估工作流,进行模型输出回归测试,设置自动化质量门控。
5.1.5 开发全面的评估系统 进行 RAG 评估,使用 LLM-as-a-judge 自动化评估,收集人类反馈。
5.1.6 实施检索质量测试 评估相关性评分、上下文匹配、检索延迟。
5.1.7 开发智能体性能框架 衡量任务完成率、工具使用有效性,使用 Amazon Bedrock Agent evaluations,评估多步骤工作流中的推理质量。
5.1.8 创建全面的报告系统 使用可视化工具和自动化报告向利益相关者传达性能指标和洞察。
5.1.9 创建部署验证系统 使用合成的用户工作流,针对幻觉和语义漂移进行输出验证,确保响应一致性的自动化检查。

任务 5.2:对生成式人工智能应用程序进行故障排除

编号 描述 关键要点/AWS服务示例
5.2.1 解决内容处理问题 诊断上下文窗口溢出,实施动态分块,优化提示设计,分析截断错误。
5.2.2 诊断并解决 API 集成问题 使用错误日志记录、请求验证和响应分析解决生成式AI服务特有的集成问题。
5.2.3 排查提示工程问题 使用提示测试框架、版本比较和系统化优化来改善响应质量和一致性。
5.2.4 排查检索系统问题 分析响应相关性,诊断嵌入质量,监控漂移,解决向量化和分块问题,优化向量搜索性能。
5.2.5 排查提示维护问题 使用 CloudWatch Logs 诊断提示混淆,使用 X-Ray 建立可观测性流水线,检测格式不一致,实施系统化优化工作流。

Some Useful Website

AWS Certified Generative AI Developer - Professional (AIP-C01) 考试大纲详解

http://vincentgaohj.github.io/Blog/2025/12/20/AWS-Generative-AI-Developer-Professional-考试大纲详解/

Author

Haojun(Vincent) Gao

Posted on

2025-12-20

Updated on

2026-01-06

Licensed under

Comments