HI-MoE:面向目标检测的分层实例条件混合专家模型

Available in: 中文
2026-04-07T21:31:49.551Z·1 min read
混合专家(MoE)已变革语言模型,但将其应用于计算机视觉——特别是目标检测——需要根本不同的方法。HI-MoE引入了分层、实例条件路由,匹配检测任务的结构。

混合专家(MoE)已变革语言模型,但将其应用于计算机视觉——特别是目标检测——需要根本不同的方法。HI-MoE引入了分层、实例条件路由,匹配检测任务的结构。

现有视觉MoE的问题

当前视觉MoE方法在图像或patch级别操作,与目标检测不匹配。

HI-MoE的两阶段路由

阶段路由器功能
场景路由器轻量级选择与场景一致的专家子集
实例路由器逐查询将每个对象查询分配给该子集中的专家

关键创新

结果

在COCO数据集上,HI-MoE改进了密集DINO基线、更简单的token级MoE方法和仅实例路由方法。

为什么重要

↗ Original source · 2026-04-07T00:00:00.000Z
← Previous: Spatially Aware GNNs with Contrastive Learning Improve Power Outage Prediction During Extreme WeatherNext: Tailslayer: C++ Library for Eliminating Tail Latency in RAM Reads →
Comments0