7月13日,紫光集团发布关于法院裁定确认《紫光集团有限公司等七家企业实质合并重整案重整计划》执行完毕的公告。7月13日,管理人收到北京一中院送达的(2021)京01破128号之五《民事裁定书》。根据《民事裁定书》,北京一中院裁定确认紫光集团有限公司等七家企业实质合并重整案重整计划执行完毕,并终结紫光集团有限公司等七家企业重整程序。
据悉,7月11日,紫光集团已经完成100%股权交割,7月12日,紫光集团向全体债权人足额支付了全部现金清偿款项,管理人完成了未受领偿债资源的提存,对暂缓确认债权、未申报债权的后续审查、清偿工作作出妥善安排,并按时向法院提出了终结重整程序的申请报告。业内分析人士表示,至此,各界关注的紫光集团司法重整案,在人民法院的严格监督指导和各方关心、大力支持下,取得了圆满成功,标志着紫光集团历经重整扬帆启航,进入全新发展阶段。
据了解,持有新紫光集团100%股权的控股股东北京智广芯控股有限公司是为了具体实施本次重整投资而设立的,将为紫光集团发展提供长期战略资源支持,助力紫光集团提升中国集成电路核心产业链的自主性、完整性和竞争力。同时,智路建广联合体经过长期市场积累、沉淀形成的雄厚集成电路产业资源,也将有望与紫光集团旗下芯云产业资源形成良好的技术、产品和客户交叉互补,为紫光集团新的发展注入强有力的支撑。
本次紫光集团重整执行完毕,公司称,新紫光交接完成后,紫光集团近1500亿元巨额债务均得到了平稳有效化解和妥善安排,负债率下降到合理健康水平,资产结构也得到全面优化,集团信用和再融资功能将逐步恢复正常,真正实现全面纾困,轻装上阵。新股东智路建广联合体的多元化资源和产业运营能力支撑,集团及下属产业公司经营业绩有望再创新高,迈上稳健发展的高速路。
紫光集团新任董事长李滨先生在给全体员工的公开信中表示,“紫光集团危难之际,在紫光集团管理人的主持下,通过司法重整,为集团从新的起点出发创造了发展契机”,“集团下一步的发展,有五个维度的价值取向,一是要为国家的新兴科技产业发展做出贡献;二是为各位员工的前途和职业生涯负责;三是要保护现有投资人、广大投资者的利益;四是要保证原有债权人的资产安全;五是要承担相应的社会责任。这是集团今后工作应当遵循的基本原则。”
李滨还表示,“紫光集团会设立三个总部:业务总部、赋能总部、管理总部。业务总部将把集团的核心业务划分为几个板块,从发展战略、投融资、产业协同等多个角度帮助集团的实体企业实现稳健成长;赋能总部将设立产能建设、科研创新和国际合作三个中心,把各子公司急需,但又没有足够资金和人才独立完成的产业链建设,以及部分前沿技术开发等工作进行资源整合,加大力度统一投入;管理总部将为集团控股的各产业公司提供财务、人力、法务、信息化等中后台的服务支持。”
公司表示,新紫光集团将一方面继续聚焦集成电路为核心的智能高科技产业链,增强核心科技研发投入和提升产业公司运管能效,成为更自主创新、更国际化的数字经济领军高科技产业集团;另一方面也将充分吸收整合智路建广联合体带来的产业战略资源,打通横跨半导体及其智能应用全产业链,从上游材料与设备产业、中游设计与制造产业以及下游应用产业,包括通信,云计算、物联网、大数据、工业互联网、5G,6G/地轨卫星通信,人工智能,机器人、无人机、新能源汽车/智能网联汽车、无人驾驶等各个方面,打造最为完整的半导体产业布局和集成电路产业全链,这对提升整个集成电路产业链结构乃至产业全面升级都将具有全方位的战略意义。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。