世界一を生成するAIの使い方 ~生成AIは「異種モデルのいいとこどり」の時代に!~
2024-02-13
azblob://2024/02/13/eyecatch/2024-02-13-aaa-event-report-000.png

世界一を生成するAIの使い方 ~生成AIは「異種モデルのいいとこどり」の時代に!


今回はアマゾンウェブサービスジャパン合同会社執行役員パブリックセクター技術統括本部長の瀧澤与一さんをお招きし、世界一を生成するAIの使い方 ~生成AIは「異種モデルのいいとこどり」の時代に!~をテーマにした内容のセミナーが開催されました(^▽^)/

今回のお話は個人的によくアマゾンさんのサービスを利用しているので、こんなところにもという新たな発見がありました!

今回はイベントレポートとなっています(⌒∇⌒)

登壇者紹介


今回登壇していただいた、アマゾンウェブサービスジャパン合同会社執行役員パブリックセクター技術統括本部長の瀧澤与一さんについて簡単にご紹介させていただきます。

2014年に日本最初の金融担当SAとして AWSにジョイン。
2015年にエンタープライズソリューション本部長、 2019
年にスペシャリストチームの本部長を経て、
2021年より公共部門の技術チームの責任者。
独立行政法人情報処理推進機構 (IPA)
クラウドサービスのセキュリティ対策 (ISMAP) に係る管理
基準WG委員などを務められ、現在はアマゾンウェブサービスジャパン合同会社執行役員パブリックセクター技術統括本部長としてご活躍されています。

株式会社FIXERからは代表取締役社長 松岡清一とプロダクトマーケティング責任者の藤井俊平が登壇しました。

 

AWSのAI/MLサービスの全体像とre:Inventで発表した最新AI/MLサービス

生成AIおよび機械学習に関して過去20年間にわたってイノベーションを実現し、Amazon.comでは毎分4000個の商品が取引されています。そして毎日160万個のパッケージ発送、毎週10億件を超えるAlexaでのインタラクションが行われています。

生成AIは2023年に世の中には広まっていて、いろんな変革ができるんじゃないかと、彷彿させるような内容が多かったそう。

AIや機械学習を使ってビジネスをどう変えるのか、もしくはそのビジネスの先にエンドユーザーであったり、どういう風な体型の工場があるのかを考えて機械学習に取り組んでいるそうです。例えばamazoncojpとかでお買い物をした時にものが早く届くと、お客様体験がよくなるそうですこの体験を良くするために技術を使うと言うことを考えてサービスを提供されているそうです。

オーダーが入って広大なセンターの中から商品を取ってきて、段ボールに詰めて、自宅に届くというような流れがあり、その際に広大なセンターの中の商品の配置、商品のピッキングをする際に、ロボットを使用し、その際に機械学習を使っているそう。
イノベーションをやることを面白がってはいるけれど、イノベーターをするということが中心ではなく、何かしらシステムを使ったお客様の体験が良くなるように、テクノロジーを使っていくために機械学習とかに取り組んでいるそうです。

良い技術があるから使おうっていうことではなく、お客様の体験を良くする為に、どうやってビジネスに組み込むで行くのかっていうことを考えながらやっているんですねΣ(・□・;)

生成AIを活用する際の課題


AIが進歩すると新たに課題が出てきます。例として正しい回答を得られない・事業や顧客の情報を反映していない、機密情報を安全に共有する必要がある、利用する人の特性に合っていない、生成されるデータが不十分または古い、保有しているデータと連携できていないなどの問題がでてきます。

そんな時にお手伝いしてくれるのがAmazon Qです。

Amazon Qとは何?


Amazon Qは、AWS(Amazon Web Services)が提供するエンタープライズ向けのアシスタントサービスです。生成AIを活用しており、システム開発支援、業務支援、データ分析、コールセンター支援など、様々なAIサービスを提供しています。

Amazon Qは、セキュリティとプライバシーにも配慮されており、企業のポリシーやデータアクセス制限に適合するように設計されています。また、お客様の情報をモデルのトレーニングに使用しないと明言されており、生成AIの活用に躊躇していた企業も安心して利用することができるものとなっています。

Amazon Qのコンセプト:RAG(検索拡張生成)は大規模言語モデル(LLM)のみで回答を得るのではなく、既存のデータソースを活用し、社内情報などの非公開なデータソースから、社内業務に合った回答を生成でき、正確さが向上しました。

Amazon Qの機能として簡単に説明すると

システム開発支援:AWS上でのシステム開発に関する質問に対して回答やアドバイスを提供します。AWSのサービスの選択や使用方法、ドキュメント、ベストプラクティスについてもサポートします。

業務支援:外部ドキュメントやアプリケーションとの連携を通じて、業務を支援するエンタープライズチャットアシスタントを提供。業務の自動化やタスクの効率化に役立つ。

データ分析と可視化:データ分析や可視化のサポートを行う。データの解釈や分析手法に関する質問に回答。また、Amazon Quicksightとの連携を通じて、データの可視化やダッシュボードの作成もサポートする。

コンタクトセンター支援:コンタクトセンターの業務を支援するための機能を提供。顧客からの問い合わせに対する回答や、問題解決のサポートを行う。

外部チャットアプリとの連携:外部のチャットアプリと連携し、チャットボットとしての機能を提供。SlackやMicrosoft Teamsなどのチャットアプリと連携することで、チャットボットとの対話が可能となる。

ネットワークのトラブルシューティング:ネットワークのトラブルシューティングをサポート。ネットワークの問題に関する質問に回答し、トラブルシューティングの手順やベストプラクティスを提供。
 

となっています。この機能を活用することで、企業は効率的なシステム開発や業務支援、データ分析、コンタクトセンターの運営など、さまざまな領域で効果的にAIを活用することが期待できます。

なお現在の対応言語は英語となっています。

生成AIを利用する際に重要な点


生成AIを利用するにあたり重要な点として、基盤モデルの選択肢・アプリケーションとのシームレスな統合・データのセキュリティとプライバシーがあります。

Amazon Bedrockerは主要な基盤モデルをサポートしています。

例えばAmazonTitanでは要約、画像とテキストの生成と検索、Q&A

AI21absのJurassic-2では文脈に応じた回答、要約、言い換え

ANTHROP\CのClaude2.1&Claude Instantでは要約、複雑な推論、ライティング、コーティング

CohereのCommand&Embedではテキスト生成、検索、分類

MetaのLlama2では対話のユースケースと言語タスク

Stability.aiのStable Diffusion XL1.0では高画質の画像とアート

などのサポートをおこなっています。

新しく利用可能になったThird-party基盤モデル


ANTHROP\CのClaude2.1

ANTHROP\CのClaude2.1とはAnthropicが開発した最新の会話型生成AIです。

Claude2.1は、以前のモデルであるClaude2よりも優れた性能を持っており、ファイルの読み込みが可能になったことにより、外部のデータや情報をAIに入力することができ、より複雑な推論や処理が可能となる。

また、日本語利用に対応しています。さらに、以前のモデルに比べてハルシネーションが2倍減少しており、わからない質問に対しても嘘をつくのではなく、正直にわからないことを伝えるように修正されています。

特に、モデルが新しくなったことで、長く複雑な文書の理解と要約において、大幅な改善が見られます。特に法的文書や財務報告書など、高度な正確性が要求される文書において、回答の精度が向上しています。

Claude2.1になったことにより、一度に20万トークン(約15万文字)の入力、長い文章や複雑な文章の処理が可能となりました。

MetaのLlama2 70B

MetaのLlama 2」は、Meta(旧Facebook)が開発した大規模言語モデル(LLM)の一つです。Llama 2は、2023年7月に発表されました。

Llama 2は、GPT-3.5と同等のパフォーマンスを実現するために、700億(70B)ものパラメータを実装しています。GPT-3.5は、3550億のパラメータを使用していますが、Llama 2はその約1/5のパラメータで同等の性能を発揮することができます。

この少ないパラメータ数により、Llama 2は運用時の負荷が軽減されます。そのため、将来的にはLlama 2を実装したAIサービスが、クラウド上ではなくスマートフォンや自宅のPCなどのローカル環境で運用できる可能性もあります。

Llama 2はオープンソースのLLMであり、誰でも利用することができます。また、商用利用も認められており、ビジネスにおいても活用することができます。

Llama2はチャットのユースケースにおいて性能のテストを実施。ファインチューンが可能となっています。

 

Stability.aiのStable Diffusion XL1.0

SDXL 1.0は1024×1024ピクセルの画像を生成することが可能であり、既存のモデルと比較して「光源と影の処理」などが改善されています。

SDXL 1.0は、通常の画像生成AIが苦手とする「手」や「3次元的な構図」といった画像も生成することができるとされています。従来の画像生成モデルでは、生成画像の品質を向上させるために特定の単語をプロンプトに挿入するテクニックが使用されていましたが、SDXL 1.0ではそのような単語を含まずに高品質な画像を生成することができます。

特にコントラスト、色使い、ライティングなどにうまくチューニングされています。

Amazon SageMaker Studioが新しくなりました


JupyterLabに加えてCode-OSS(VS Code open source)をサポート、JupterLabの起動がさらに高速になりました。

SageMakerで利用しているリソースを機能ごと1箇所で確認でき、エンドポイントの管理やモニタリングなどStudioになかった情報も統合的に表示されるようになりました。

 

AWS Trainium2とEC2 Trn2インスタンスを発表


AWS Trainium2チップを発表しました。AWS Trainiumと比較してトレーニング処理が最大4倍高速、メモリ容量が3倍、エネルギー消費効率が2倍になりました。

AWS EFAによるEC2 Ultra Clusterで最大100,000のTrainium2で実行可能、最大65EFLOPSを発揮し、3000億パラメータのLLMのトレーニングを数か月から数週間の単位に短縮する。

なお詳細は今後発表の予定とのことです。

先端技術、最新LLMの現場の最前線に浸透

GaiXerのサービス戦略 株式会社FIXER


日本においてはChatGPTに注目が集まっていますが、生成AIはChatGPTだけではありません。

各国/各社が大規模言語モデル(LLM)開発でしのぎを削っています。

言語モデルの引用が肝要



LLMが学習していない内容については答えられなかったり、関係のない知識を無理やり組み合わせても誤った回答を出すハルシネーションを起こしたりすることも、生成AIを企業や行政の業務に使う上で問題になっています。

こうした課題を解決するためにFIXERは、生成AIへの質問や指示内容に応じて、適切なLLMをシステムが自動的に選択する仕組みを開発しました。また、AIが学習した情報では答えられないとわかると、インターネットの検索エンジンを使ってネット上から必要な情報を取得して答える機能も導入しています。

GaiXer とは


複数の大規模言語モデル(LLM)を併用、独自データ学習も可能なエンタープライズ向け生成AI基盤となっています。

マルチプラットフォーム/マルチLLMにより可用性を高めるとともに、国産を含む多様なLLMを並行して利用可能。

マルチプラットフォームのメリットとして

単一障害点をなくすことによって高い可用性の実現、多様なLLMを活用可能、ベンダーロックインの回避があります。

また、専用環境で提供を行っています。学習データを専用環境上で取り扱うため、機密情報を入力学習させることが可能となっています。

まとめ


前々回に書いたAWS12冠達成がいかに難しいものなのかがわかるお話でした(*_*)

今後も様々なイベントを開催していきます。興味のあるかたは是非参加してみてくださいね(^▽^)/

azblob://2024/04/08/eyecatch/2024-04-04-yellow-apron-000.jpg
2024/04/15
About FIXER