
私が機械学習と出会ったのは2012年、大学院に進学したときでした。当時はまだAIが急速に発展している最中で、研究テーマとしても注目を集め始めた時期でした。大学院では理論と実装の両面で機械学習を学び、その後はウェブ検索エンジンの会社に就職しました。そこで、研究と産業の両面で機械学習が一気に普及していく様子を間近で体験しました。単なる研究分野ではなく、多くの企業が製品機能の最適化やオンライン販売、広告配信に本格的にAIを活用し始めた時期でもありました。
2020年には、日本のニュースアグリゲーター系スタートアップに参加しました。この会社は、最先端の機械学習手法を導入してユーザーの興味を深く理解し、より精度の高いコンテンツ配信を実現しようとしていました。単にニュースを届けるだけでなく、ユーザーに最適化された広告や記事をリアルタイムで提案することが目的です。私は主にレコメンドモデルの性能改善と、それを支えるパイプラインの最適化を担当し、ユーザー体験と収益の両面に直結する開発に携わってきました。
LLM(大規模言語モデル)の登場と、それを取り巻くエコシステムの急速な進化を目の当たりにして、AIの社会的な影響力と将来性をこれまで以上に強く感じるようになりました。そうした中で出会ったのが、JAPAN AIが掲げる「日本でトップクラスのAIエージェント企業になる」という明確で野心的なビジョンです。単なるスローガンではなく、その目標に向けて全員が集中し、高速に試行と改善を繰り返している姿勢に強く惹かれました。
もう一つの大きな魅力は、社内文化です。JAPAN AIでは、AIツールの活用を積極的に推奨しており、誰でも自由に試せる環境が整っています。さらに、年末までにコードの80%以上をAIによって生成するという明確な目標も掲げており、このような具体的かつ挑戦的な方針は他社ではなかなか見られません。
私はまだ入社して2カ月ほどですが、初月から開発に貢献する機会を得られました。特に印象的だったのは、AIエージェントに「スマートツール選択機能」を導入したプロジェクトです。これは、AIエージェントがタスク内容に応じて最適な内部・外部ツールを自動で選択できるようにする仕組みで、結果的にユーザーがLLMとやり取りする際のコストを削減できました。
この改善自体は機能としては小規模かもしれませんが、既存のパイプラインに影響を与えずに統合する必要があり、かつ応答速度を落とさないことが重要でした。その条件をクリアしながら実装できたことが、大きな達成感につながりました。現在は「プランナーモード」や「メモリ管理」の導入を進めており、重要な情報を保持したまま無限に会話できるエージェントの実現を目指しています。

私たちのチームは、JAPAN AI CHATの中核である「コアエージェントサービス」の開発と保守を担当しています。このサービスは、アプリとLLMをつなぐ“頭脳”のような存在で、ユーザーからのリクエストや環境情報を理解できる形に整えてLLMへ渡し、LLMが計画した手順をオーケストレーションし、最終的な応答を生成します。
私はテックリードとして、実装だけでなくアーキテクチャ設計や技術的な優先順位付けにも関わっています。現在のチームはマネージャーと私の2名のみですが、サービス全体に大きな影響を与える役割を担っており、今後は採用を通じてチーム拡大を進めていく予定です。
技術的な難しさの多くは、LLMが持つ本質的な制約から生じます。まず大きな課題が「トークン数の制限」です。長時間の会話で文脈を完全に保持することは難しく、そのままではやり取りの長さに制約が生じます。この問題に対しては、重要情報を失わずに会話履歴を要約・圧縮する「コンテキスト圧縮コンポーネント」を開発しています。
次に、LLMが本質的にステートレスであり、重要な事実を忘れてしまったり、時には事実と異なる回答(ハルシネーション)を返してしまうことがあります。これを解決するため、会話の一貫性を保つ「メモリ管理システム」を構築し、必要な情報を長期的に保持できるようにしています。
さらに、LLMとのやり取りにはコストがかかります。市場競争においてコスト効率は重要であり、エージェントが必要なときに必要なツールだけを使う「スマートツール選択機能」を導入することで、無駄な処理とコストを削減しています。最後に、B2Bサービスである以上、ユーザーのプライバシー保護は絶対条件であり、性能向上と安全性の両立を常に意識しながら開発を進めています。
スタートアップらしく、短いサイクルで試作と改善を繰り返し、スピード感を持って開発を進めています。一方で、顧客数が増える中では、安定性も確保しなければなりません。まるで走行中の車のエンジンを改造しているような状況で、その両立が大きなチャレンジです。