财经新闻网消息:
垂直领域前所未有的机遇
作为先进技术的标杆,人工智能领域的任何风波都可能引起全球关注。 从Sora诞生的那一刻起,仅仅一年多的时间就刷新了我们的认识。 在此期间,国内“百模之战”正如火如荼地进行,一批已注册的大型车型已向各行业和公众开放。 从全球来看,人工智能领域的竞争日趋激烈。
咨询公司麦肯锡预计,以AIGC为代表的人工智能技术将为全球经济带来超过7.9万亿美元的价值。 到2030年,如果生成式AI应用到各个行业,每年的经济效益总额将高达6.1万亿美元至7.9万亿美元。 数万亿美元。
近日,在中国发展高层论坛2024年年会“人工智能发展与治理研讨会”上,中国科学院副院长吴朝晖表示,人工智能将成为第四次工业革命的标准特征加快传统产业改造。 升级实现质量变革、效率变革、动力变革,重塑工业基础重构、生产服务模式创新等各个环节,引领新型工业化发展,为智慧经济发展提供新动能。
如何抓住新一轮工业革命机遇? 这是一个机遇,也是一个挑战。
人工智能作为技术工具,需要与产业融合,推动产业数字化转型,从而促进经济社会发展。 我国庞大的人口、应用场景和完整的产业链为产业的实施提供了坚实的环境支撑。 360集团创始人周鸿祎表示,如果企业在某个业务领域拥有独特的业务数据,就应该在这个垂直领域训练一个大模型,并将其与企业业务工具结合起来。 未来企业中不会只有一个超大型模型,而是多个小规模、数百亿的大模型,每个模型只从事一种场景。
发挥场景落地优势,在垂直领域发力,正在成为当前国内企业发展人工智能的共识。 腾讯云副总裁、腾讯云智能负责人、优图实验室负责人吴云生介绍,腾讯已将大规模AI模型应用于多个业务场景。 在产业落地方面,基于腾讯云TI平台模型推出的业界领先的AI模型,通过结合行业专业知识和数据训练,以及企业自身数据进行微调,帮助企业快速生成专属模型。 目前已向20多个行业输出50多个行业大模型解决方案。
3月27日,百度智能云“AI云日:大模型应用产品发布会”发布大模型重构升级后的7款产品,涵盖营销内容创作、数字人、智能客服等七个垂直领域。 。 百度智能云副总裁余友平表示,大模型作为通用应用,必须与场景紧密结合。 目前,业界普遍在思考如何在企业中使用大模型。
业内人士认为,对于大多数企业特别是中小微企业来说,以小规模、垂直大规模模式为切入点,可以高效、快速地实现人工智能对行业的数字化赋能。 同时,将企业垂直领域的智能应用开发交给专业的智能产品服务商,让“专家”更专业、更高效。
作为生产智能化产品和解决方案的服务商,山东浪潮智能生产技术有限公司正在围绕智能生产在基础通用模型的基础上训练和开发“智能生产大模型”。 浪潮智能生产总经理宋志刚表示,对于制造业来说,只有聚焦人工智能与行业场景的深度融合,将其与制造企业的生产环节深度融合,充分发挥人工智能的优势。深度学习和自主决策可以改善生产过程。 智能化水平。 浪潮智能生产以大规模智能生产模型为支撑,以“多维数据融合和智能优化引擎”为技术核心,打造智能生产数据分析平台,已在多家制造企业实际应用,显着提升了生产效率。生产效率。 影响。 据了解,专业从事发动机活塞环制造的福建东亚机械有限公司采用该智能平台后,通过机器视觉数据和行业数据集的微调,生产效率提高了20%,产品合格率由90%提高到99%。 %。
监管面临新挑战
人工智能创造前所未有机遇的同时,也伴随着超前类别的风险,对监管提出严峻考验。
人工智能带来的安全问题存在于AI模型的数据获取、数据训练、应用在线运行的整个过程中。 吴云生认为,AI本体安全或AI内生安全应关注AI模型和算法本身在可靠性、公平性、可解释性、透明性等方面的安全缺陷; 人工智能应用安全是指人工智能模型的开发和测试。 从部署到运行交互的整个生命周期的应用安全; AI衍生安全,也称为AIGC内容安全,主要涉及色情、暴力相关内容等违法违规内容的审核。 长远来看,随着生成式人工智能的发展,人工智能伦理和AGI可控性将成为人工智能安全的重点。
百度法律研究中心主任陈晨表示,随着大模型的普及和快速迭代,确保其输出的内容符合用户期望和法律要求变得至关重要。 大模型内容输出的风险本质上是模型推理能力和逻辑的风险。 这些风险主要体现在模型中可能出现“偏差”、“误判”、“错觉”等现实情况。 因此,多元数据集对于大型模型开发至关重要。 目前,我国生成式人工智能和大模型技术创新仍处于起步阶段。 数据训练需要尽可能具有包容性和多样性,而具有良好价值的高质量数据往往是受版权保护的。 如果优质内容的缺乏导致生成式人工智能出现一定偏差,产生逻辑推理风险,将不利于产业深度融合和公共服务水平的提升。
从企业角度来看,宋志刚认为,数据是一个核心点。 智能模型的决策是基于训练数据的。 一方面,训练数据的不准确会影响智能模型的决策,并且用于训练样本的数据面临泄露或篡改的风险。 他建议,可以生产传感器等智能设备,从多个维度收集数据,建立数据准确性、完整性和有效性的管理机制。 同时,我们将加强技术研究,基于小样本数据进行快速学习,不断优化模型参数。 此外,还可以建立多重数据授权和安全保护机制,确保数据安全。
随着人工智能越来越广泛地应用于生产生活的各个方面,关于其使用所产生的真实性、道德要求、权责归属等问题的讨论也逐渐增多。
大模型具有工具属性,可以成为好人的帮手,也可以成为坏人的帮凶。 周鸿祎表示,合理的监管能够给人工智能带来积极的推动。 除了监管之外,我们还要寻找技术手段,比如给人工智能制作的视频添加不可更改、不可替代、不可修改的内部水印。
中国政法大学数据法研究所教授张凌瀚认为,安全问题应通过技术发展来应对和解决。 不发展是最大的不安全感。 在国际技术和产业竞争中,必须把发展作为制度设计的总体目标。
治理体系逐步完善
人工智能的安全和治理问题关系到产业发展的方向和速度,关系到供应方和供应方的权利和义务,更关系到在国际竞争中的优势和主动权。
北京航空航天大学法学院院长助理、副教授赵景武表示,一个国家对人工智能的法律规制不仅影响其自身产业发展和风险管理,也决定了该国在全球人工智能治理中的话语权。 同时,在全球化背景下,人工智能技术发展和应用的跨国性也要求国际社会共同面对和解决技术发展带来的挑战。
2023年10月18日,我国发布《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三个方面系统阐述了中国人工智能治理方案。 倡议提出,人工智能技术带来不可预测的风险和复杂的挑战。 各国应加强人工智能治理信息交流和技术合作,不断提高人工智能技术的安全性、可靠性、可控性和公平性。 。
有效的治理规划不仅能为人工智能创新发展和产业应用提供良好的发展环境,还能妥善应对技术发展过程中的风险和问题。
中国信息通信研究院政策经济研究所高级工程师程英告诉记者,算法治理是在成熟的商业业态成熟后,围绕网络平台发展起来的相对稳定、清晰、可预测的治理。已确立的。 当前的大规模模型具有可扩展性强、迭代快、商业模式仍在探索等特点。 世界主要经济体共同面临“一边发展、一边探索、一边治理”的重大挑战。 在我国,人工智能治理正在从原则、理念转变为可实施的规章制度。 在立法层面,《民法典》、《个人信息保护法》、《电子商务法》等都有针对深度伪造、大数据成熟度等具体问题的规定,以及算法推荐、深度合成等方面的要求。 ,以及部门监管层面的AIGC。 道德层面,在《关于加强科技道德治理的意见》下,进一步推动《科技道德审查办法(征求意见稿)》实施。 在标准层面,我国发布了《国家新一代人工智能标准体系建设指南》《生成人工智能服务安全基本要求》等,对国家新一代人工智能标准体系建设提出了具体实施要求。人工智能。
人工智能领域的专门法律也在逐步推进。 今年,在十四届全国人大二次会议新闻发布会上,会议新闻发言人娄勤俭表示,下一步将研究推动科技创新立法,特别是深入开展科技创新立法。伦理学、伦理学等人工智能、生物技术等前沿科技领域的研究。 伦理、安全等重要问题,不断完善科技法制体系。
免责声明 ① 本网所刊登文章均来自网络转载;文章观点不代表本网立场,其真实性由作者或稿源方负责 ② 如果您对稿件和图片等有版权及其他争议,请及时与我们联系,我们将核实情况后进行相关删除 ③ 联系邮箱:215858170@qq.com