⭐️この記事はJAPAN AIアドベントカレンダー2025の15日目の記事です⭐️

Platform Engineering Group — Infrastructure Team Yu Hu インタビュー

JAPAN AI の技術基盤を支える中心に、Yu Hu さんがいます。 ソーシャルゲームからビッグデータ、そしてスマートニュースまで──多様な領域でインフラを極め、クラウドと AI の進化を最前線で見続けてきたエンジニアです。 2015 年以降はクラウドネイティブ技術を扱い、2019 年には SmartNews にて Kubernetes ベースのサービスプラットフォームを構築。大規模トラフィックを支える運用、GPU クラスタを使ったモデル学習、FinOps によるコスト最適化まで、幅広い領域をリードしてきました。 そんな Yu さんがいま、日本の AI 変革の中心として JAPAN AI を選んだ理由とは? そして、インフラエンジニアの視点から見た “AI 時代のリアル” を語ってもらいました。

IMG_4987-3.jpg

Yu Hu

Platform Engineering グループ

Infrastructure チーム

簡単な自己紹介と経歴を教えてください

JAPAN AI に入社する前は、さまざまな技術スタックや環境で仕事をしてきました。その経験が、今のインフラに対するアプローチに大きく影響しています。Crooz ではソーシャルゲームと EC を支えるインフラを、Cloudera では企業向けビッグデータプラットフォームを、SmartNews ではグローバルなニュース配信を支えるサービス基盤を担当していました。 これまで、ソーシャルゲームやECを支えるシステム開発、大規模なデータプラットフォームの運用支援、機械学習機能を業務に組み込むための技術支援など、さまざまな環境で経験を積んできました。直近では、Kubernetes を用いたクラウドネイティブなサービス基盤の構築・運用を担当し、グローバル規模のトラフィックに対応しながら、パフォーマンスとコストの最適化に取り組みました。あわせて、モデル学習のための GPU 環境設計にも携わっています。現在も FinOps の取り組みに関わり続けており、AWS Summit Tokyo で登壇する機会にも恵まれました。 AI や機械学習は、キャリアを通じて一貫して関わってきたテーマです。初期のレコメンデーションシステムから、エンタープライズ向けの ML ツール、モデル学習パイプラインに至るまで、その形はさまざまですが、常に中心にありました。インフラは、AI を信頼性高くスケールさせるための基盤であり、その結びつきに強い関心を持ち続けています。

JAPAN AI のどこに共感して入社しましたか?

LLM の進化はここ数年で劇的に加速し、AI は完全に新しいフェーズに入りました。生成 AI は、一部の専門業務だけでなく、日本のあらゆる産業の生産性を大きく変えるポテンシャルがあります。

しかし日本の企業は、まだ AI 活用の初期段階にあります。この状況は、課題であると同時に “巨大なチャンス” でもあると感じました。

日本の企業が本当に AI を使いこなし、ビジネスに力を取り戻すためには、

「企業が安心して使えるスケールする AI インフラ」 が必要です。

その未来を一緒に作りたいと思ったことが、JAPAN AI を選んだ大きな理由です。

入社後に印象的だった仕事はありますか?

入ってまず驚いたのは、開発サイクルの速さです。

JAPAN AI ではほぼ毎日のように新しいバージョンがリリースされ、プロダクトが目に見える形で前進していきます。

そこには「とにかく早く出す」という乱暴さではなく、 “素早くつくり、素早く学び、素早く改善する” という健全なアジャイル文化があります。

開発者一人ひとりがプロダクトの改善に強い責任感を持ち、技術的にも妥協をしない姿勢を感じました。

このスピード感は、これまでのどの会社とも違うものでした。

「AI の時代の開発スタイルとはこういうものか」と実感できる環境です。

チームのミッションと、ご自身の役割を教えてください

私の所属するインフラチームは、GCP と Kubernetes を中心にJAPAN AI を支える基盤を構築・運用しています。