HyperAccel、サムスンの4nmで「ベルダ」試作を進め、LPDDR5X採用のLPUで電力と設備費を抑えつつNAVER・LGとのPoCを拡大

「人工知能(AI)サービスの利用料を現在の3万ウォン台から5000ウォン水準まで引き下げることが核心目標だ。」

イ・ジンウォンHyperAccel最高技術責任者(CTO)は11日、ソウル・ソチョドンの本社でChosunBizと会い、このような青写真を明らかにした。エヌビディアのグラフィックス処理装置(GPU)が支配する現在のAIインフラ構造を丸ごと代替できなくとも、大規模言語モデル(LLM)推論特化の専用半導体で「コストパフォーマンス競争」を繰り広げるという抱負だ.

このCTOはサムスン電子システムLSI事業部のシステム半導体設計エンジニア出身だ。スマートフォンの「頭脳」役を担うアプリケーションプロセッサ(AP)を設計した。イ・ジンウォンは2021年にAI半導体スタートアップのニューブラを経て2023年に設立されたHyperAccelにCTOとして合流した。現在AI半導体アーキテクチャの開発を総括している.

先月11日、ソウル瑞草洞のHyperAccel本社で会ったイ・ジンウォンCTOが会社の青写真を説明している。/チェ・ヒョジョン記者
先月11日、ソウル瑞草洞のHyperAccel本社で会ったイ・ジンウォンCTOが会社の青写真を説明している。/チェ・ヒョジョン記者

HyperAccelはLLM推論(結果生成)に特化したAI半導体「ベルダ(Bertha)」を開発する国産ファブレス(半導体設計)スタートアップだ。サムスン電子ファウンドリーの4ナノ工程で生産されるこのチップは既存GPUと設計哲学からして異なる。核心は自社アーキテクチャの「LPU(Language Processing Unit)」と高価な高帯域幅メモリー(HBM)の代わりに低価格の低電力DRAM(LPDDR5X)を採用した点である.

このCTOは現在のAI半導体の主要なボトルネックを「メモリアクセス」と挙げた。イ・ジンウォンは「演算性能そのものが不足して遅くなるのではなく、メモリからデータを読み書きする過程があまりに複雑で停滞が発生する」と述べ、「GPUはHBMから内部SRAMにデータを移し、再び演算器に送る過程を繰り返すが、この過程でボトルネックが現れる」と説明した.

HyperAccelはこの構造を完全に変えた。ベルダは中間記憶域(バッファ)を最小化し、外部メモリから演算装置(LPU)へデータを直接送る構造を設計した。このCTOは「GPUのメモリ帯域幅活用率がおよそ50%水準だが、われわれはこれを90%水準まで引き上げることを目標にしている」と語った.

このような構造変化は「コスト」革新につながる。現在AIサービスを運営する企業にとって最大の負担は装置価格と電力料金を合算した総所有コスト(TCO)である。このCTOは「エヌビディアH100 GPUは1台あたり7000万〜8000万ウォンに迫り、サーバー1台を構成すると10億ウォンを超える場合も少なくない」とし、「ベルダはLPDDRを活用して設備費と電力消費を同時に減らすことで、GPU比でTCOを3分の1水準まで下げることを目標としている」と述べた.

HyperAccelの目標はデータセンターにとどまらない。家電、ロボットなど機器自体でAIを処理する「オンデバイスAI」市場も正面から狙っている。現在LGエレクトロニクスと協力して家電向けAIアクセラレータの開発を進めており、電力制約が大きい環境でリアルタイム処理が重要であるだけにベルダの高効率アーキテクチャを活用する戦略だ。ただしこれは現在PoC(技術検証)段階であり、今後の商用製品搭載に向けた協力を続けている.

HyperAccelはベルダの量産以降、本格的な売上発生を見込んでいる。会社側は当初はデータセンターの顧客を中心に供給を拡大し、その後クラウド事業者とオンデバイスAI市場まで拡張することを目標としている。以下はこのCTOとの一問一答だ.

―チップ開発はどの段階か。

「チップ設計は完了しており、今月中に出てくる予定だ。実環境で性能と信頼性を検証した後、今年下半期の量産を目標としている。」

―LPUはGPUとどの点が異なるか。

「GPUがあれこれ何でもこなす『汎用アクセラレータ』なら、LPUはただLLM推論作業にのみ全火力を注ぐ『特化構造』だ。チップ構造自体をトランスフォーマーモデルのデータフローに合わせて最適化した。」

―HBMの代わりにLPDDRを使うと速度が遅くないか。

「単純な帯域幅は低いが、データ移動経路を最適化して『実効効率』を高めるのがわれわれの戦略だ。おかげで同じ予算でより多くの同時ユーザーにサービスを提供できる。」

―サムスン電子ファウンドリー、デザインハウスなど韓国半導体エコシステムと協力しているが。

「AI半導体は設計だけで完結する産業ではなく、ファウンドリー、デザインハウス、パッケージング、サーバーへとつながる一種の『総合芸術』だと考える。今回のベルダ開発過程でもサムスン電子ファウンドリーと協力し、デザインハウスとともに設計作業を進めている。韓国でもこうした経験が蓄積されてこそ、長期的にシステム半導体エコシステムが善循環構造を作れるとみる。」

―主要顧客はどこか。

「データセンター事業者が核心だ。NAVERクラウドとはすでにPoCを進行中であり、K-クラウド事業と連携して事例を拡大する計画だ。特定領域で確かなコストパフォーマンス競争力を示す。」

https://biz.chosun.com/jp/jp-it/2026/04/04/QAHXUMC2EBDEHOTI4EV3YP5FTM