Amazon Web Services ブログ
Anthropic のコーディング向けの最もパワフルなモデル、Claude 4 が Amazon Bedrock に登場
Anthropic は 5 月 22 日、次世代の Claude モデルである Opus 4 と Sonnet 4 をリリースしました。コーディング、高度な推論、次世代の有能な自律型 AI エージェントのサポートを目的として設計されたモデルです。どちらのモデルも Amazon Bedrock で一般提供を開始しました。開発者はモデルの高度な推論機能とエージェント機能の両方にすぐにアクセスできるようになりました。
Amazon Bedrock は Anthropic の最先端モデルで AI の選択肢を広げ、エンタープライズグレードのセキュリティと責任ある AI 管理を備えた革新的なアプリケーションの自由な構築を実現します。どちらのモデルも、タスクプランニング、ツールの使用、エージェントの操作性を向上させることで、AI システムの可能性を拡張しています。
Opus 4 の高度なインテリジェンスを使用すると、大規模なコードベースのリファクタリング、リサーチの統合、部門を超えたエンタープライズオペレーションの調整など、長時間実行されるコンテキストの多いタスクを処理するエージェントを構築できます。Sonnet 4 は大規模な効率化に向けて最適化されているため、サブエージェントとして、またはコードレビュー、バグ修正、本番グレードのコンテンツ生成などの大量のタスクに適しています。
生成 AI を使用して構築する場合、多くの開発者は長期的なタスクに取り組みます。多くの場合、これらのワークフローには多段階のプロセス、大規模なコンテキスト全体の計画、長期にわたる多様なインプットの統合など、深く持続的な推論が必要となります。これらのワークフローのいい例として、大規模プロジェクトのリファクタリングやトランスフォーメーションを支援するデベロッパー AI エージェントがあります。既存のモデルでも迅速かつ問題なく対応できるかもしれませんが、特にコーディング、調査、エンタープライズワークフローなどの分野では、一貫性とコンテキストを長期にわたって維持することは依然として困難な場合があります。
Claude Opus 4
Claude Opus 4 は、Anthropic の最も高度なモデルであり、最小限の監視で複雑なタスクを推論、計画、実行できる高度な AI エージェントを構築できるように設計されています。Anthropic ベンチマークでは、これが現代の市場で入手可能なコーディングモデルのうち、最良であることが示されています。これは、コンテキストの拡張、深い推論、適応型の実行が不可欠なソフトウェア開発シナリオに優れています。開発者は Opus 4 を使用して、プロジェクト全体でのコードの記述やリファクタリング、フルスタックアーキテクチャの管理、大まかな目標を実行可能なステップに分割するエージェントシステムの設計を行うことができます。SWE-bench や TAU-bench などのエージェント中心のベンチマークやコーディングで優れたパフォーマンスを発揮するため、多段階の開発ワークフローを処理するエージェントを構築する場合、自然な選択肢となります。例えば、Opus 4 は、プロセス全体を通して要件とアーキテクチャコンテキストを追跡しながら、技術文書の分析、ソフトウェア実装の計画、必要なコードの記述、反復的な改良を行うことができます。
Claude Sonnet 4
Claude Sonnet 4 は、パフォーマンス、応答性、コストのバランスを取ることで Opus 4 を補完するもので、大量生産ワークロードに適しています。コードレビューの強化、バグ修正の実装、即時のフィードバックループを使用した新機能開発など、日常的な開発タスク向けに最適化されており、パフォーマンスが向上しています。また、ほぼリアルタイムのアプリケーション向けの本番環境対応の AI アシスタントにも活用できます。Sonnet 4 は、Claude Sonnet 3.7 のドロップイン代替品です。マルチエージェントシステムでは、Sonnet 4 はタスク固有のサブエージェントとしてうまく機能します。対象を絞ったコードレビュー、検索と検索、またはより広範なパイプライン内での個別の機能開発などの処理を行うことができます。また、Sonnet 4 を使用すれば、高いスループットおよび開発者に合わせたアウトプットを維持しながら、継続的インテグレーションとデリバリー (CI/CD) パイプラインの管理、バグのトリアージの実行、API の統合などを実行できます。
Opus 4 と Sonnet 4 は、ほぼ瞬時の応答と、より深い推論のための拡張思考という 2 つのモードを備えたハイブリッド推論モデルです。インタラクティブなアプリケーションでは、ほぼ即時の応答を選択することができます。また、リクエストにおいてより詳細な分析と計画が必要になる場合は、拡張思考を有効にできます。思考は、ソフトウェアエンジニアリング、数学、科学研究などの分野での長期にわたる推論タスクに特に役立ちます。最大トークン数を設定するなどしてモデルの思考予算を設定することで、レイテンシーと回答深度の間のトレードオフをワークロードに合わせて調整できます。
開始方法
Opus 4 または Sonnet 4 の動作を確認するには、AWS アカウントで新しいモデルを有効化します。その後、Opus 4 のモデル ID anthropic.claude-opus-4-20250514-v1:0
と Sonnet 4 のモデル ID anthropic.claude-sonnet-4-20250514-v1:0
で Bedrock Converse API を使用して、コーディングを開始できます。メッセージをサポートするすべての Amazon Bedrock モデルで機能する、一貫した API が提供されるため、Converse API の使用をお勧めします。つまり、一度コードを書いたら、そのコードをさまざまなモデルで使用できるということです。
例えば、コードリポジトリの変更をマージする前にコードをレビューするエージェントを記述したとします。Bedrock Converse API を使用してシステムプロンプトとユーザープロンプトを送信する、次のコードを記述します。次に、エージェントはストリーミングされた結果を消費します。
private let modelId = "us.anthropic.claude-sonnet-4-20250514-v1:0"
// Claude に応答方法を指示するシステムプロンプトを定義します
let systemPrompt = """
あなたは Swift、特に Swift 6 の同時実行に関する深い専門知識を持つシニア iOS デベロッパーだとします。あなたの仕事は、並行処理に関連するエッジケース、潜在的な競合状態、Task、TaskGroup、Sendable、@MainActor、@preconcurrency などの Swift 同時実行プリミティブの誤用の特定に焦点を当てたコードレビューを行うことです。
コードを注意深く見直し、同時実行環境で予期しない動作を引き起こす可能性のあるパターンやロジックにフラグを立てる必要があります。例えば、適切な分離なしに共有可変状態にアクセスすること、アクターの誤用、同時実行の境界を越える非 Sendable 型などです。
正確な技術用語を用いて理由を説明し、安全性、予測可能性、正確性を向上させるための推奨事項を提示してください。必要に応じて、慣用的な Swift 6 を使用して具体的なコード変更やリファクタリングを提案してください
"""
let system: BedrockRuntimeClientTypes.SystemContentBlock = .text(systemPrompt)
// テキストプロンプトと画像を含むユーザーメッセージを作成します
let userPrompt = """
次の Swift コードで同時実行の問題がないか確認してください。 うまくいかない可能性があること、およびその修正方法を教えてください。
"""
let prompt: BedrockRuntimeClientTypes.ContentBlock = .text(userPrompt)
// テキストと画像の両方のコンテンツを含むユーザーメッセージを作成します
let userMessage = BedrockRuntimeClientTypes.Message(
content: [prompt],
role: .user
)
// ユーザーメッセージでメッセージ配列を初期化します
var messages: [BedrockRuntimeClientTypes.Message] = []
messages.append(userMessage)
// 推論パラメータを設定します
let inferenceConfig: BedrockRuntimeClientTypes.InferenceConfiguration = .init(maxTokens: 4096, temperature: 0.0)
// ストリーミングを使用して Converse API の入力を作成します
let input = ConverseStreamInput(inferenceConfig: inferenceConfig, messages: messages, modelId: modelId, system: [system])
// ストリーミングリクエストを実行します
do {
// ストリームを処理します
let response = try await bedrockClient.converseStream(input: input)
// ストリームイベントをイテレーションします
for try await event in stream {
switch event {
case .messagestart:
print("AI-assistant started to stream"")
case let .contentblockdelta(deltaEvent):
// テキストコンテンツが到達したら処理します
if case let .text(text) = deltaEvent.delta {
self.streamedResponse + = text
print(text, termination: "")
}
case .messagestop:
print("\n\nStream ended")
// ストリーミングされた応答から完全なアシスタントメッセージを作成します
let assistantMessage = BedrockRuntimeClientTypes.Message(
content: [.text(self.streamedResponse)],
role: .assistant
)
messages.append(assistantMessage)
default:
break
}
}
同僚の Dennis は、皆さんがすぐに使用を開始できるように、複数のユースケースとさまざまなプログラミング言語に対応する幅広いコード例をご用意しています。
Amazon Bedrock で今すぐご利用いただけます
このリリースにより、開発者はフルマネージド型のサーバーレスサービスである Amazon Bedrock で、Anthropic が開発した次世代の Claude モデルにすぐにアクセスできるようになります。既に Amazon Bedrock で Claude を使用して構築している方でも、使用を開始したばかりの方も、このシームレスなアクセスにより、インフラストラクチャや複雑な統合を管理することなく、最先端の基盤モデルを使用した実験、プロトタイプ作成、拡張を迅速に実行できます。
Claude Opus 4 は、北米の米国東部 (オハイオ、バージニア北部) と米国西部 (オレゴン) の AWS リージョンでご利用いただけます。Claude Sonnet 4 は、北米の AWS リージョンだけでなく、APAC、欧州 (米国東部 (オハイオ、バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (ハイデラバード、ムンバイ、大阪、ソウル、シンガポール、シドニー、東京)、欧州 (スペイン)) でもご利用いただけます。クロスリージョン推論を通じて 2 つのモデルにアクセスできます。クロスリージョン推論は、地域内の最適な AWS リージョンを自動的に選択して、推論リクエストを処理するのに役立ちます。
Opus 4 を使用すると、最も困難な開発タスクに取り組むことができます。一方、Sonnet 4 はスピードと機能の最適なバランスを備え、ルーチンワークに優れています。
料金と Amazon Bedrock でのこれらの新しいモデルの使用方法について、今すぐご確認ください。
原文はこちらです。