新浪新闻客户端

中邮·金工|OpenAI发布GPT-4.1,智谱发布GLM-4-32B-0414系列——AI动态汇总20250421

中邮·金工|OpenAI发布GPT-4.1,智谱发布GLM-4-32B-0414系列——AI动态汇总20250421
2025年04月25日 11:15 新浪网 作者 热点聚焦

  转自:中邮证券研究所

  摘要

  OpenAI发布GPT-4.1,显著提升代码能力

  4月15日,Open以API的形式发布GPT-4.1系列模型,涵盖GPT-4.1、GPT-4.1mini和GPT-4.1 nano。GPT-4.1在编程、指令遵循和长文本理解方面有显著提升,上下文窗口最高支持100万tokens。同时,GPT-4.1的性价比也十分出色,效果方面对标4o模型,可以用极低的价格达到相同的模型效果。但仍有模型评价人员认为,GPT-4.1与GPT-4.5差别不大,且表现并不如Gemini 2.5,以及有声音质疑GPT-4.1是从GPT-4.5蒸馏来的。

  智谱发布GLM-4-32B-0414系列,效果比肩高参数模型

  4月14日,智谱宣布推出新一代 GLM-4-32B-0414 系列模型,320 亿参数,效果比肩 OpenAI 的 GPT 系列和 DeepSeek 的 V3 / R1 系列,且支持非常友好的本地部署特性。目前该模型共有GLM-4-32B-Base-0414、GLM-Z1-32B-0414、GLM-Z1-Rumination-32B-0414和GLM-Z1-9B-0414 四个版本。

  豆包发布思考模型Seed-Thinking-v1.5

  4月17日,豆包旗下最新思考模型Seed-Thinking-v1.5通过火山引擎开放接口,技术细节已于4月14日公开。据技术文档称,该模型也采用了MoE架构,总参数量200B,激活参数20B,在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出。除此之外,豆包还开发了两个内部基准用于对模型进行评价,分别是BeyondAIME和Codeforces,这两个基准都将公开发布以支持未来的研究。

  GPT-o3/o4-mini发布,视觉推理能力大幅提升

  4月17日,OpenAI发布满血版o3和o4-mini,首次将图像推理融入思维链,还会自主调用工具,o3以十倍o1算力刷新编程、数学、视觉推理SOTA。

  本报告所有信息基于网络内容整理,不构成投资建议。

  目录

  1. AI重点要闻

  1.1 OpenAI发布GPT-4.1,显著提升代码能力

  1.2 智谱发布GLM-4-32B-0414系列,效果比肩高参数模型

  1.3 豆包发布思考模型Seed-Thinking-v1.5

  1.4 GPT-o3/o4-mini发布,视觉推理能力大幅提升

  2. 企业动态

  2.1 微软发布BitNet b1.58 2B4T

  2.2 中文最大MCP社区上线

  2.3 OpenAI发布Codex CLI工具

  3. AI行业洞察

  3.1 智谱启动IPO程序

  3.2 OpenAI收购Context.ai团队,发力AI评估赛道

  4. 技术前沿

  4.1 Video-R1: 7B参数模型视频推理能力超GPT-4o

  4.2 华为发布密集模型盘古-Ultra,性能比肩DeepSeek-R1

  5. 风险提示

  信息披露

  正文

  AI重点要闻

  1.1 OpenAI发布GPT-4.1,显著提升代码能力

  4月15日,Open以API的形式发布GPT-4.1系列模型,涵盖GPT-4.1、GPT-4.1mini和GPT-4.1 nano。GPT-4.1在编程、指令遵循和长文本理解方面有显著提升,上下文窗口最高支持100万tokens。同时,GPT-4.1的性价比也十分出色,效果方面对标4o模型,可以用极低的价格达到相同的模型效果。但仍有模型评价人员认为,GPT-4.1与GPT-4.5差别不大,且表现并不如Gemini 2.5,以及有声音质疑GPT-4.1是从GPT-4.5蒸馏来的。

  GPT-4.1的主要亮点如下:

  •   代码能力:GPT-4.1 在SWE-bench Verified测试中得分为54.6%,比GPT-4o提升了21.4%,比GPT-4.5提升了26.6%,使其成为领先的编码模型。

  •   指令遵循:在衡量指令遵循能力的Scale’s MultiChallenge基准测试中,GPT-4.1 得分为 38.3%,比 GPT-4o 提升了 10.5%。

  •   长上下文:在多模态长上下文理解基准Video-MME中,GPT-4.1创下了新的 SOTA成绩——在长篇无字幕类别中得分为72.0%,比GPT-4o提升了6.7%。

  GPT-4.1模型系列以更低的成本提供了卓越的性能。这些模型在延迟曲线的每个点上都实现了性能的提升。

  在编程能力方面GPT-4.1显著优于GPT-4o,包括代理解决编码任务、前端编码、减少无关编辑、可靠地遵循 diff格式、确保工具使用的一致性等等。在衡量真实世界软件工程技能的SWE-bench Verified测试中,GPT-4.1完成了54.6% 的任务,而GPT-4o完成了33.2%(2024-11-20)。这反映了模型在探索代码库、完成任务以及生成可运行和通过测试的代码方面的能力的提升。

  Trae核心功能与亮点:

  在指令遵循方面,GPT-4.1也有一定的提升。OpenAI开发了一套评价指令遵循的工具用于辅助优化模型的该项能力,包括:

  •   格式遵循。提供指定模型响应自定义格式的指令,例如XML、YAML、Markdown等。

  •   负面指令。指定模型应避免的行为。(例如:“不要要求用户联系支持人员”)

  •   有序指令。提供一组模型必须按给定顺序遵循的指令。(例如:“首先询问用户的姓名,然后询问他们的电子邮件”)

  •   内容要求。输出包含特定信息的内容。(例如:“编写营养计划时始终包含蛋白质含量”)

  •   排序。以特定方式对输出进行排序。(例如:“按人口数量对响应进行排序”)

  •   过度自信。如果请求的信息不可用,或者请求不属于给定的类别,则指示模型回答“我不知道”或类似的问题。(例如:“如果您不知道答案,请提供支持联系邮箱”)

  上下文窗口方面,GPT-4.1、GPT-4.1 mini和GPT-4.1 nano最多可处理100 万个上下文标记,而之前的GPT-4o模型最多可处理12.8万个。100万个标记相当于8个完整的React代码库,因此长上下文非常适合处理大型代码库或大量长文档。

  OpenAI训练了GPT-4.1,使其能够可靠地处理100万个上下文长度的信息。同时还训练它在注意相关文本和忽略长短上下文干扰项方面比GPT-4o更加可靠。长上下文理解是法律、编码、客户支持以及许多其他领域应用的关键能力。

  下图为OpenAI开发的上下文窗口评估能力的评价基准以及GPT-4.1的表现:

  除了官方给出的评测,同时也有第三方测试人员对GPT-4.1三个版本的模型进行了六边形测试,结果显示,GPT-4.1精准模拟了小球物理运动过程,GPT-4.1-mini/GPT-4.1-nano表现却差了很多。因此有人员质疑GPT-4.1-mini/GPT-4.1-nano的低成本是牺牲生成质量换来的。

  1.2 智谱发布GLM-4-32B-0414系列,效果比肩高参数模型

  4月14日,智谱宣布推出新一代 GLM-4-32B-0414 系列模型,320 亿参数,效果比肩 OpenAI 的 GPT 系列和 DeepSeek 的 V3 / R1 系列,且支持非常友好的本地部署特性。目前该模型共有GLM-4-32B-Base-0414、GLM-Z1-32B-0414、GLM-Z1-Rumination-32B-0414和GLM-Z1-9B-0414 四个版本。

  GLM-4-32B-Base-0414,在预训练阶段,该模型采用15T高质量数据,其中包含大量推理类的合成数据,这为后续的强化学习扩展打下了基础。在后训练阶段,除了针对对话场景进行了人类偏好对齐外,团队还通过拒绝采样和强化学习等技术强化了模型在指令遵循、工程代码、函数调用方面的效果,加强了智能体任务所需的原子能力。

  GLM-4-32B-0414 在工程代码、Artifacts 生成、函数调用、搜索问答及报告等方面都取得了不错的效果,部分 Benchmark 甚至可以媲美更大规模的 GPT-4o、DeepSeek-V3-0324(671B)等模型。

  GLM-Z1-32B-0414是具有深度思考能力的推理模型,在GLM-4-32B-0414的基础上,通过冷启动和扩展强化学习,以及在数学、代码和逻辑等任务上对模型的进一步训练得到的,可以看到GLM-Z1模型和GLM-4模型之间的关系与DeepSeek R1和V3之间的关系很类似。相对于基础模型,GLM-Z1-32B-0414显著提升了数理能力和解决复杂任务的能力。在训练的过程中,该团队还引入了基于堆栈排序反馈的通用强化学习,进一步增强了模型的通用能力。

  而GLM-Z1-Rumination-32B-0414模型则是具有沉思能力的深度推理模型,对标DeepResearch。沉思模型通过更长时间的深度思考来解决更开放和复杂的问题(例如:撰写两个城市AI发展对比情况,以及未来的发展规划),结合搜索工具处理复杂任务,并经过利用多种规则型奖励来指导和扩展端到端强化学习训练得到。

  GLM-Z1-9B-0414是一个小尺寸模型,在数学推理和通用任务中依然展现出极为优秀的能力,其整体表现已处于同尺寸开源模型中的领先水平。

  1.3 豆包发布思考模型Seed-Thinking-v1.5

  4月17日,豆包旗下最新思考模型Seed-Thinking-v1.5通过火山引擎开放接口,技术细节已于4月14日公开。据技术文档称,该模型也采用了MoE架构,总参数量200B,激活参数20B,在数学、编程、科学推理等专业领域及创意写作等通用任务中表现突出。除此之外,豆包还开发了两个内部基准用于对模型进行评价,分别是BeyondAIME和Codeforces,这两个基准都将公开发布以支持未来的研究。

  Seed-Thinking-v1.5在AIME 2024上取得了86.7分,在Codeforces上取得了55.0分,在GPQA上取得了77.3分,展现了其在STEM和编程领域卓越的推理能力。除了推理任务之外,该方法还在多个领域展现出显著的泛化能力。例如,它在非推理任务上的胜率比DeepSeek R1高出8%,表明其适用性更为广泛。

  数据方面,针对推理与生成任务的不同需求,开发团队优化了数据处理策略:

  •   可验证数据(如数学、代码题):通过百万级数据三重清洗(人工筛选 → 模型过滤 → 多模型验证),保留 10 万道高难度题目;设计答案整数化改造、离线沙箱验证等机制,确保模型输出真实推理过程;

  •   非可验证数据(如创意写作):基于豆包 1.5 Pro 训练集,剔除低价值样本,采用两两对比奖励法,优化生成质量;

  •   全新评测基准:构建了超难数学数据集 BeyondAIME(100 道无答案题干题目),解决现有测试区分度不足问题。

  模型训练方面,开发团队提出双轨奖励机制,兼顾“对错分明”与“见仁见智”任务:

  •   可验证任务:开发了两代验证器(Seed-Verifier → Seed-Thinking-Verifier),从字符匹配升级为推理步骤逐行对比(训练 / 测试集准确率超 99%),杜绝模型“奖励欺骗”;

  •   非可验证任务:引入 pairwise 对比训练,通过千万次“AB 测试”,捕捉人类对创意、情感等的隐性偏好,避免“众口难调”;

  •   双轨融合:针对混合场景设计协调机制,硬指标(对错)与软偏好(优劣)互补,支撑全场景训练。· 创新与功能集成

  1.4 GPT-o3/o4-mini发布,视觉推理能力大幅提升

  4月17日,OpenAI发布满血版o3和o4-mini,首次将图像推理融入思维链,还会自主调用工具,o3以十倍o1算力刷新编程、数学、视觉推理SOTA。

  在Codeforces、SWE-bench、MMMU等基准测试中,o3刷新SOTA,不论是在编程、数学、科学,还是在视觉感知领域都树立了新标杆。尤其是,对于图像、图表、图形分析,o3表现尤为突出,能够深入挖掘视觉输入的细节。

  值得注意的是,在Codeforces中,新模型得分均超2700分,在全球参赛者中排名前200名。奥特曼评价说该模型“接近或达到天才水准”,但该水准的智力水平需要极高的算力支持。相较于满血版o3,o4-mini则以小巧高效、高性价比的特点脱颖而出。在AIME 2025测试中,o4-mini配合Python解释器取得了99.5%高分,几乎完美拿下了这项基准测试。而且,在数学、编程、视觉任务,以及非STEM领域,它的性能均优于o3-mini。此外,o4-mini支持远超o3的使用额度,是高并发场景最优选。总而言之,o3和o4-mini都非常擅长编码,由此OpenAI还开源了一个可在终端运行的轻量级编程AI智能体——Codex CLI。

  更引人注目的是,o3和o4-mini在视觉推理上全面超越前代,成为o系列最新的视觉推理模型。它们通过在思维链(CoT)中用图像进行推理,实现了视觉感知的重大突破。OpenAI首次实现了模型在其思维链中用图像进行思考——而不仅仅只是看图。与早期的OpenAI o1类似,o3和o4-mini能在回答前思考更久,在回答用户前内部会生成很长的思维链。不仅如此,o3和o4-mini可以在思考过程中「看」图片。这种能力是通过工具处理用户上传的图像来实现的,比如进行裁剪、放大、旋转等简单的图像处理。更厉害的是,这些功能都是原生的,不需要依赖额外的专业模型。在基准测试中,这种用图像思考,无需依赖网络浏览的能力,碾压了前代多模态模型的性能。在STEM问答(MMMU、MathVista)、图表阅读与推理(CharXiv)、感知基元(VLMs are Blind)以及视觉搜索(V*)等领域,o3和o4-mini均创下了SOTA。特别是,在 V*基准测试上,两款模型以96.3%准确率几乎攻克了这项挑战,标志着视觉推理技术重大飞跃。

  2 企业动态

  2.1 微软发布BitNet b1.58 2B4T

  4月17日,科技媒体WinBuzzer发布称微软研究团队推出了一款开源大型语言模型 BitNet b1.58 2B4T,区别于传统训练后量化的方式,这款拥有20亿参数的大型语言模型(LLM)以1.58位低精度架构原生训练而成。

  该模型性能直追同规模全精度模型,但计算资源需求大幅缩减。尤其令人瞩目的是,其非嵌入内存占用仅0.4GB,远低于竞品Gemma-3 1B的1.4GB和 MiniCPM 2B的4.8GB。

  BitNet的高效秘诀在于其创新架构。模型摒弃传16位数值,采用定制 BitLinear层,将权重限制为-1、0、+1三种状态,形成三值系统,每权重仅需约1.58位信息存储。此外,层间激活值以8位整数量化,形成W1.58A8配置。微软还调整了Transformer架构,引入平方ReLU激活函数、标准旋转位置嵌入(RoPE)以及subln归一化,确保低位训练稳定性。技术报告称,这种原生1位训练避免了传统后训练量化(PTQ)带来的性能损失。BitNet b1.58 2B4T的开发历经三阶段:首先基于4万亿token的网络数据、代码和合成数学数据集进行预训练;随后通过公开及合成指令数据集(如WizardLM Evol-Instruct)进行监督微调(SFT);最后采用直接偏好优化(DPO)方法,利用UltraFeedback等数据集提升对话能力和安全性。

  2.2  中文最大MCP社区上线

  4月15日,中国第一开源社区魔搭ModelScope重磅上线MCP广场,近1500多款热门MCP同时登陆,覆盖了搜索、地图、支付、开发者工具等前沿领域,支付宝,MiniMax明星MCP服务更是独家首发。

  MCP全称是“模型上下文协议”(Model Context Protocol),被誉为“AI界的USB-C接口”,无论是云端模型与本地数据交互,还是多模态模型之间的协同,“一根线”就可连接到不同AI模型、工具、数据,可极大简化开发者的集成工作。在开发过程中,开发者需要调用的工具越多,越能凸显出MCP的价值,比如同样是100个AI智能体和100个外部工具:

  传统API:配置次数为100×100=10000

  MCP:配置次数为100+100=200

  MCP另一个重大的突破在于,实现了与供应商解耦的开发。传统的AI搭建中,开发者通常被锁定在某个AI供应商的生态系统,或单一的工具链中。比如,为OpenAI插件编写的代码难以复用至其他平台。MCP开放标准,彻底打破了这一桎梏。无论是Claude、Gemini,还是Qwen、DeepSeek等开源大模型,开发者都能无缝调用任何MCP服务器。这种灵活性让开发者可以自由「混搭」,假设用Claude处理文本任务,同时可以切换到开源模型处理多模态任务,而底层MCP集成保持不变。也正因此,开发者无需关心底层工具的复杂实现,只需聚焦于创意本身。对于工具开发者来说,也是一个福音。传统工具依赖GUI/API面向人类用户,而MCP让工具天生具备AI驱动的能力。

  2.3 OpenAI发布Codex CLI工具

  4月17日,OpenAI发布了一款轻量级终端运行编码智能体——Codex CLI,该工具现已在GitHub完全开源。Codex CLI可以直接在用户的计算机上工作,旨在最大化o3和o4-mini等模型的推理能力,并即将支持GPT-4.1等额外的 API 模型。

  OpenAI 认为 Codex CLI是一个将其模型与用户及其计算机连接起来的最小化界面。Codex CLI是为已经生活在终端的开发者设计的,他们想要ChatGPT级别的推理能力,以及实际运行代码、操作文件和迭代的权力——所有这些都在版本控制之下。简而言之,它是一种理解并执行仓库的聊天驱动开发工具。

  3 AI行业洞察

  3.1 智谱启动IPO程序

  4月14日,中国证券监督管理委员会官网显示,“大模型六小龙”之一的北京智谱华章科技股份有限公司在北京证监局办理辅导备案,由中国国际金融股份有限公司担任辅导机构,计划于2025年10月完成辅导计划,进行考核评估,做好首次公开发行股票并上市申请文件的准备工作。这意味着智谱成为第一家正式启动IPO流程的“大模型六小龙”公司,也是第一家正式启动IPO流程的大模型创业公司。

  3.2 OpenAI收购Context.ai团队,发力AI评估赛道

  科技媒体maginative于4月16日发布博文,报道称OpenAI宣布收购 Context.ai团队,后者是一家由GV支持的初创公司,以评估和分析AI模型见长。Context.ai的联合创始人Henry Scott-Green(首席执行官)和Alex Gamble(首席技术官)将加入OpenAI,专注于研发模型评估工具。

  Context.ai成立于2023年,由前谷歌员工Henry Scott-Green和Alex Gamble创立。公司成立不久便从GV和Theory Ventures筹集了350万美元种子资金。

  其核心产品是通过分析仪表板为开发者提供AI模型性能的可见性,帮助识别模型对用户查询的响应模式。Scott-Green在2023年接受TechCrunch采访时曾指出,行业普遍面临“黑箱”问题——开发者难以理解用户如何使用模型,也无法准确掌握模型表现。Context.ai的工具能分析模型交互、分类对话并标记模式,助力开发者发现性能瓶颈。随着AI模型日益复杂,评估指标在开发和部署中的作用越发关键。企业面临巨大压力,需要证明其系统按预期运行,并找出不足之处。Context.ai的专长与OpenAI的目标高度契合,后者正致力于让模型对开发者而言更可靠、更可衡量。此次收购正值AI行业竞争加剧之际,OpenAI 希望通过引入专业评估人才,与Anthropic和谷歌等对手拉开差距。值得注意的是,Context.ai团队规模较小,截至2023年中期仅有6名员工,尚不清楚是否全员加入OpenAI。

  4 技术前沿

  4.1 Video-R1: 7B参数模型视频推理能力超GPT-4o

  港中文和清华的团队推出了Video-R1模型,将强化学习的R1范式应用在视频推理领域,在李飞飞提出的VSI-Bench基准中超越了GPT-4o。

  该研究提出了Video-R1模型,这是第一个系统性地探索基于R1范式的视频推理的尝试。尝试解决了两个难点,一是现有的GRPO算法在视频推理中缺乏时间建模能力;二是高质量的视频推理数据稀缺。

  为了解决视频大模型没有时间概念的问题,研究团队推出了T-GRPO算法,这是一种扩展的GRPO算法,通过对比有序和随机打乱帧序列的推理性能,鼓励模型利用时间信息进行推理。

  为了解决高质量视频推理数据的不足,引入了图像推理数据作为训练数据的一部分。构建了两个数据集:Video-R1-COT-165k用于SFT冷启动,Video-R1-260k用于RL训练。这些数据集包含了图像和视频数据,以支持模型的多样化训练。

  该模型采用Qwen2.5-VL-7B作为基础模型,分两个阶段进行训练:首先是SFT冷启动阶段,使用Video-R1-COT-165k数据集进行监督微调;其次是RL训练阶段,使用Video-R1-260k数据集和T-GRPO算法进行强化学习训练。

  在多个视频推理测试基准上,这个Video-R1-7B模型几乎场场领先,尤其在李飞飞提出的VSI-Bench这一权威评测中,它拿下了35.8%的准确率,超越了闭源顶尖大模型GPT-4o。不仅如此,RL和传统SFT之间的差距也被拉开了。比如同样是7B体量的Qwen2.5-VL-SFT,在测试中表现不佳。反观Video-R1,则在几乎所有场景中都稳定输出,泛化能力一骑绝尘。

  4.2 华为发布密集模型盘古-Ultra,性能比肩DeepSeek-R1

  华为利用纯昇腾集群训练出的密集模型盘古Ultra,模型参数量只有135B且整个训练过程零英伟达含量,最终模型在数学竞赛、编程等推理任务当中,和R1水平相当。

  作为一个参数量135B密集模型,盘古Ultra达到了同尺度密集模型的最优表现,甚至可以与DeepSeek-R1等参数量更大的MoE模型竞争。在预训练阶段模型的评测中,盘古Ultra在绝大部分英文基准任务和全部中文任务上取得了最佳性能,优于Llama 405B、DeepSeek-V3等baseline模型。尤其在MMLU、TriviaQA、GSM8K等具有挑战性的数据集上,盘古Ultra展现出了卓越的语言理解和推理能力。

  为了解决训练超深网络面临的不稳定性和收敛困难等问题,盘古Ultra在模型架构上做出了两个关键改进——深度缩放的Sandwich-Norm层归一化和 TinyInit参数初始化策略。传统的Transformer通常使用Pre-LN层归一化,但在深度模型中,Pre-LN容易导致每个子层输出尺度的波动,引发训练不稳定。盘古Ultra使用的Sandwich-Norm层归一化,则是在残差连接前对每个子层的输出做归一化,并根据网络深度对初始化值进行缩放,从而有效消除了训练过程中的 loss尖峰,使训练过程更加平稳。用更容易理解的话说,传统方法仅在每个子层的输入进行归一化,但这种方法针对输出也进行了归一化,形成了Pre-Norm + 子层 + Post-Norm的“三明治”结构。

  从结果来看整个预训练过程中,损失曲线持续下降,未出现损失峰值,表明深度缩放三明治归一化和TinyInit有效稳定了训练过程。且在多个基准测试中,Pangu Ultra在大多数通用英语基准和所有中文基准上达到了最先进的性能,尽管在代码和数学任务上略逊于DeepSeek V3,但在这些领域仍表现出竞争力。在后训练推理任务中,Pangu Ultra表现出色,特别是在AIME 2024、MATH-500、GPQA Diamond和LiveCodeBench等任务中达到了领先水平。

  5 风险提示

  以上内容基于历史数据完成,在政策、市场环境发生变化时存在失效的风险;历史信息不代表未来。

  证券研究报告:《OpenAI发布GPT-4.1,智谱发布GLM-4-32B-0414系列——AI动态汇总20250421》

  对外发布时间:2025年4月23日

  分析师:肖承志 SAC编号:S1340524090001

  邮箱:xiaochengzhi@cnpsec.com

  报告发布机构:中邮证券有限责任公司

  法律声明:

  本订阅号所载内容所指的证券或金融工具的价格、价值及收入可涨可跌,以往的表现不应作为日后表现的显示及担保。本订阅号所载内容并非投资决策服务,仅供订阅人参考之用,不是也不应被视为出售、购买或认购证券或其它金融工具的要约或要约邀请。订阅人不应单纯依靠本订阅号所载内容而取代自身的独立判断,应根据自身能力自主审慎决策,并自行承担投资风险。本订阅号所载内容不表明其对产品或者服务的风险和收益做出实质性判断或者保证,中邮证券不对使用本订阅号所载内容产生的任何直接或间接损失或与此有关的其他损失承担任何责任。

  (转自:中邮证券研究所)

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

权利保护声明页/Notice to Right Holders
0条评论|0人参与网友评论
最热评论

举报邮箱:jubao@vip.sina.com

Copyright © 1996-2025 SINA Corporation

All Rights Reserved 新浪公司 版权所有

广告