文.洪宝山
过去台郡高度依赖iPhone的手机软板订单。随著智慧型手机成长停滞,加上红色供应链的价格竞争,导致毛利率受到严重压缩。为了摆脱单纯「卖软板」的低毛利宿命,公司投入大量研发费用在光通讯与高频传输技术,这在短期内侵蚀了获利。
AI伺服器对LCP软板需求大增
台郡的转机不在于手机卖得更好,而在于结构性转型。
虽然台郡在AI伺服器主板的切入速度比金像电、臻鼎慢,但台郡锁定的是「机内线」与「高频传输模组」,随著AI伺服器架构越来越复杂,对于「既能弯折,又能高速传输」的LCP(液晶高分子)软板需求大增,这正是台郡的技术强项。台郡推出的「光电模组(MetaLink)」技术,专注于LCP高频传输模组,是苹果LCP天线的主要供应商之一,预计在2026年正式导入量产。
MetaLink将软板升级为「讯号传输解决方案」,能解决AI伺服器与边缘运算装置在传输时的高热与耗能问题,MetaLink是卖「传输模组」(次系统),这让台郡从一个单纯的制造商,升级为解决方案提供商,是台郡最强的护城河。
台虹是台湾最大的软性铜箔基板厂,负责将LCP原料加工成软性铜箔基板(FCCL),积极开发高频LCP与MPI材料,是台郡、臻鼎的上游重要伙伴。台郡若要大量出货LCP模组,势必需要高品质的LCP基板支援,台虹作为关键供应商,营收往往会连动。
MetaLink技术 解决800G、1.6T传输瓶颈
台郡的MetaLink技术并不仅仅是一条「软板」,而是一套针对高频高速传输设计的LCP传输模组解决方案。
AI伺服器内的同轴电缆或是厚重的铜线,运算时极热且空间拥挤,MetaLink针对AI伺服器机柜内部的「机内线」,利用LCP材料轻薄、可弯折的特性,能像血管一样穿梭在伺服器狭小的空间中,不仅节省空间利于散热,还能维持高频讯号的低损耗,解决800G甚至1.6T时代的传输瓶颈。
简单来说,MetaLink解决的是电子产品在传输大量数据时会遇到的发热与讯号衰减问题。这是MetaLink最重要的应用,也是市场给予台郡估值提升的关键。
此外,车用ADAS与低轨卫星属于比较长线的布局。卫星通讯使用的是极高频段(毫米波),这正是LCP材料的物理强项,MetaLink可用于卫星地面接收设备的天线模组。自动驾驶需要大量的雷达与影像数据传输,车体内的布线非常复杂。MetaLink的抗干扰与耐高频特性,适合用于车用雷达模组的讯号传输。
切入资料中心等级高速光通讯市场
台郡想做MetaLink,有软板技术,但缺光通讯晶片,2023年台郡入主宏观微电子,就是看上了宏观能提供跑在光纤与高频软板上的晶片。两者结合,就能卖给客户完整的「AI高速传输解决方案」。
AI伺服器GPU到Switch需要极高速的资料传输,传统铜线(DAC)在高速下传输距离很短,现在大量改用主动式光纤缆线(AOC),宏观的TIA(转阻放大器)和Driver(雷射驱动器)就是装在这些光纤线两端的晶片,负责「电讯号」与「光讯号」的极速转换。
随著AI伺服器从100G、400G走向800G甚至1.6T的传输速度,对光通讯晶片的需求是倍数成长。宏观正从传统的HDMI光纤线(消费级)转型切入资料中心等级的高速光通讯市场。
宏观原本是全球电视与机上盒讯号的低杂讯降频器(LNB)晶片龙头,市占率35~40%,这块市场虽然是成熟市场,但竞争对手(如Silicon Labs、NXP)多已淡出,宏观靠著高性价比持续接收对手留下的市占率,是稳定获利来源。这项技术直接延伸到了低轨卫星的地面接收站的射频晶片来处理高频讯号。低轨卫星的地面接收盘(Dish)需要捕捉快速移动的卫星讯号,这需要比传统电视更复杂的波束成形(Beamforming)与宽频射频技术。
独家「卫星光纤传输晶片」
宏观正利用在LNB累积的Ku/Ka频段技术优势,开发低轨卫星用的波束成形高阶射频晶片,处在送样与认证阶段。当卫星地面站收到讯号后,需要长距离传输到机房,用铜线会衰减,必须改用「光纤」。宏观有独家的「卫星光纤传输晶片(RF over Fiber)」,能将射频讯号转为光讯号传输,这在卫星基站建置中非常重要。
台郡2025年几乎已成定局是重度亏损年。前三季累计EPS已达-5.09元,法人预估全年可能亏损超过-6元。如果2026年MetaLink能成功打入辉达或其他CSP云端服务商的AI伺服器机内线标准配备,并且手机市场不继续恶化,随著折旧摊提压力减轻,那么EPS有机会3元。
建议密切观察2025年第四季或2026年第一季的毛利率是否开始回升,那是转机确立的第一个讯号。目前法人预估的中位数约落在EPS 0.3~1.5元之间。
aiDAPTIV+与SSD整合进AI储存 带动高阶储存机壳需求
群联开发了一套中间软体,能骗过GPU,让GPU以为它有无限大的记忆体。当HBM满了,系统会自动将暂时不用的数据快速搬运到SSD中,需要时再搬回来。透过软硬体整合(aiDAPTIV+架构),让SSD当作GPU的「超级外挂记忆体」,解决HBM容量不足且价格昂贵的痛点。
AI需要快速存取数据,因此架构上会将「运算(GPU Server)」与「储存(Storage Server)」分开,中间透过高速传输线连接。在一个小空间塞入数十颗高速运作的SSD,热能非常惊人,营邦拥有优异的散热与机构设计能力,能确保这些硬碟不会过热降速。
在2024年台北电脑展上,营邦与群联正式签署合作备忘录(MOU)。双方约定将群联的aiDAPTIV+技术与SSD,直接整合进营邦的AI Storage产品线中。每一台AI运算伺服器旁边,通常需要搭配高容量的AI储存伺服器来存放训练资料,这带动了营邦高阶储存机壳的需求。
※理财周刊1323期更多精采文章