4月26日至30日,由国资委、福建省人民政府、中国电信等单位联合主办的第六届“数字中国建设峰会•云生态大会”在福州盛大举办。神州信息作为“数字中国”的探索者、实践者和赋能者,重磅亮相海峡国际会展中心,展示“数字金融、数据资产、场景金融、云及信息技术应用创新”等领域创新实践成果。同时,神州信息副总裁、服务BG总经理李侃遐作为领“2023云生态大会·技术论坛”现场,全国政协委员、中国工程院院士、“星光中国芯工程”总指挥邓中翰,中国电信集团有限公司副总经理、党组成员李峻,中科院计算所副所长、北京开源芯片研究院首席科学家包云岗以及神州信息副总裁、服务BG总经理李侃遐等权威专家分享前沿观点。先金融科技企业代表,以“金融信息技术应用创新实践”为主题,分享了神州信息的全栈金融信息技术应用创新建设能力、成熟实践方法论,以及携手天翼云推出的“金融云联合解决方案”“金融客户端网银安全产品”等联合解决方案。

神州信息副总裁、服务BG总经理李侃遐现场演讲
神州信息副总裁、服务BG总经理李侃遐在演讲中回顾了神州信息的起源和历程。她表示,神州信息最早成立的时候就以“数字中国”为名(英文名称:Digital China),立志通过“数字化中国”助力实现中华民族的伟大复兴。四十年来,神州信息持续践行“数字中国”使命,不断以新技术、新产品、新服务、新模式,陪伴并服务了金融行业从“电算化”“信息化”走向“数字化”的整个发展历程,致力于成为领先的金融数字化转型合作伙伴。
对于金融信息技术应用创新来说,金融核心业务是建设的关键场景,而数据库又是其中的重点和难点,数据库的性能、扩展性、安全性以及开发适配成熟度将直接影响核心业务的创新建设。此次,天翼云携手神州信息推出“金融信息技术应用创新联合解决方案”,就是帮助金融机构应对这一挑战。方案整合了神州信息分布式应用平台、TeleDB金融级分布式可信数据库,以及天翼云的可信云平台,强强联合,助力金融机构建设高可信、高易用、高易管的一站式数字化安全底座。


中国电信集团有限公司副总经理、党组成员唐珂与神州信息服务BG副总经理王海波
交流联合解决方案


天翼云科技有限公司总经理胡志强莅临神州信息展区交流联合解决方案
金融行业是现代经济的核心,金融行业信息技术应用创新是关系“国家安全”和“科技强国”战略的重要工程;同时,金融行业具有“业务+技术”高度融合、IT架构复杂、业务安全性及稳定性要求高等特点。在此背景下,金融行业信息技术应用创新建设整体上呈现出政策明确、要求具体、任务艰巨的特点。神州信息从1987年开始参与金融信息化建设,是国内最早参与金融创新试点工作的金融科技服务商,以自主研发的未来银行架构蓝图ModelB@ank5.0为指引,不仅积累了满足金融数字化转型全方位需求的软件及解决方案,还在金融信息技术应用创新方面形成了全栈建设能力,构建了完整的自主创新生态圈,积累了市场领先的实践案例,累计参加了近10余家银行的核心改造和重建项目,50余金融机构的创新咨询服务,40多家银行的试点工程项目,是金融机构、产业同仁值得信赖的伙伴。
长期以来,天翼云与神州信息基于战略互信,保持了良好的合作,通过多维度联合创新实践,服务金融行业上云、数字化转型,获得广泛客户的信赖。此次大会,天翼云为神州信息颁发“最佳实践合作伙伴”奖。对于未来,神州信息表示,将继续聚焦推进数云融合的金融科技战略,以“数字+数据”融合创新为驱动,助推金融数字化,服务实体经济。继续秉持“成就客户 创造价值 追求卓越 开放共赢”的企业价值观,与生态伙伴广泛合作,为实现金融数字化、“数字中国”的宏伟理想贡献力量!


好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。