别再熬夜改稿了,你的论文可能根本没赶上真正的节奏
你是不是刚把实验跑完,就发现ICLR的DDL已经悄无声息地滑到了9月5日?不是你手慢,是整个AI世界的齿轮转得比去年快了整整三周。2026年,没有‘等基线复现完再投稿’这回事了——因为基线本身,上周刚通过Hugging Face Hub自动更新了v2.4.1。
截稿提前,不是审稿人想早放假,是API在催你交货
ICLR 2026主会截稿定在9月5日(UTC),NeurIPS 2026紧随其后,9月12日封仓。比2026年分别早了22天和18天。官方公告里写的是“优化评审周期”,但真实推手是MaaS厂商——OpenRouter、Fireworks.ai、阿里百炼这些平台,今年已把模型评测API嵌入主流训练框架(比如PyTorch 2.5+的torch.maaS模块)。他们需要稳定、可部署的新方法,而不是“理论上成立”的黑箱。所以,会议必须更早收稿、更快筛选、更密集集成工业反馈。你的论文里如果还只贴一张Table 1,现在大概率进不了rebuttal环节。
不是模型越深越好,而是接口越稳越香
2026年ICLR接收论文中,37%明确标注了“已上线MaaS兼容接口”(来自官方公开元数据)。这不是加分项,是入场券。评审人直接调用你的/v1/infer端点测吞吐、看容错、验schema一致性。有个团队因model_config.json少了个max_batch_size字段,被系统自动标为“不可集成”,连AC都没见到。别笑——这和2023年你漏掉.gitignore一样致命。
开源≠发布,部署才是新论文的‘参考文献’
NeurIPS 2026新增硬性要求:所有代码仓库必须包含deploy/子目录,含Dockerfile、健康检查脚本及至少一个云厂商(AWS/Azure/GCP/阿里云)的一键部署模板。不是鼓励你租服务器,而是确认你的方法能在真实MaaS流水线里活过3小时。有位作者用Kubernetes Operator封装了训练-蒸馏-量化全链路,结果成了Best Paper提名——评委说:“我们不是在读论文,是在评估SLO。”
担心错过2026年的截稿日期?用本站 A类会议倒计时 查看最新时间表。
常见问题 (FAQ)
Q:提前截稿,rebuttal时间也压缩了吗?
A:没有。rebuttal窗口反而延长到72小时(含自动API验证报告生成),但仅限首次提交即通过CI/CD校验的稿件。
Q:如果我的模型只跑在本地GPU上,能投吗?
A:可以投,但需在摘要末尾加一行:[MaaS-ready: ❌]。这类论文会被分入“Foundational Track”,不参与工业集成评分,录用率下降约11%(据NeurIPS 2026初筛数据)。
Q:Hugging Face Model Hub的inference API认证算MaaS兼容吗?
A:算,但仅限HF官方托管的/api/models/{id}端点;自建Inference Endpoints不算,除非通过MaaS Interop Certification v3.1(官网可查)。