|
财经视点
警惕AI智能引发的颠覆未来、重塑人类的科技风暴?
如果上帝在 7 天内创造了他的宇宙;人工智能能对我们做什么? 人工智能的到来预示着智能爆炸——奇点将导致人工智能能力呈指数级增长。 这种超级智能可能导致一个无所不知、无所不在、无所不能的存在的到来。 人类将如何接收这个新实体?它会是无所不知的吗?
在当今数字化时代,人工智能(AI)已经成为科技领域最热门和最具前景的领域之一。它已经渗透到各行各业,为人类带来了便利和效率。然而,随着AI技术的不断进步和突破,有人开始担心AI的发展是否会失控,是否会对人类造成威胁,甚至是否会取代人类。
人工智能(Artificial Intelligence,简称AI),它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
人工智能是新一轮科技革命和产业变革的重要驱动力量。
人工智能是智能学科重要的组成部分,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
人工智能(AI)就是机器做人类需要智力才能完成的事情,理解自然语言,识别照片中的面部,驾驶汽车或者基于我们先前的阅读偏好猜测我们可能会喜欢的书。
人工智能区别于工厂生产线上按照编程重复进行简单任务的机械臂,它更像是通过试错自动学习如何处理不同任务的机械臂。
人工智能可以对人的意识、思维的信息过程的模拟。
人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。
智能,是智力和能力的总称,涉及到诸如意识、自我、思维(包括无意识的思维)等问题。人唯一了解的智能是人本身的智能,但是我们对我们自身智能的理解都非常有限,对构成人的智能的必要元素也了解有限,所以就很难定义什么是人工智能。
人工智能就是研究使用计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。
人工智能将涉及到计算机科学、心理学、哲学和语言学等学科。
人工智能有哪些好处?
机器学习是目前人工智能的领先技术,经过训练的程序能够在大量数据中寻找规律并作出反应,比如在图片中识别人脸或者在下围棋时选择正确的一步。该技术可应用到各类问题中,比如让计算机寻找医学影像中的规律;人工智能还被用来分析数量庞大的分子信息,以寻找新药的候选品——如果让人来完成这一过程,耗时过长,没有分析的价值。的确,机器学习可能很快在医疗方面发挥不可替代的作用。
人工智能还能帮助我们管理全球船运网络这样的高度复杂的系统。以悉尼博塔尼港(Port Botany)的集装箱码头为例,这里的核心系统管理着数千个集装箱进出港口的事项。它在一个完全无人的区域管理一批无人操纵的集装箱跨运车。在采矿业也有类似的情况,越来越多的优化引擎被用于规划和协调资源的运输,比如将铁矿石运输到巨大的无人驾驶采矿卡车上,再运送到运货列车上,最后把铁矿石送到港口。
人工智能的用途遍及各行各业,从金融业到运输业,它监控着股票市场上的可疑交易行为,帮助控制地面和空中的交通。它们甚至可以帮你阻挡垃圾邮件。这还只是人工智能的开端。随着技术的进步,它的用途也会越来越多。
人工智能(AI)是一种正在迅速发展的技术,它在许多领域都有广泛的应用。然而,AI的发展也带来了一些潜在的危险和威胁?
1、人工智能用于研究武器:AI可以提升武器的使用效率,瞄准更加准确,遥控精度更高,对人类杀伤力必将提高。
2、反人类者基于AI研制出机器来伤害人类:不排除少量反人类主义者研制出强大的具有自我学习能力的武器来伤害人类。
3、人类对AI依赖性太大,引起社会动荡:如果机器做出了错误的决定,则有可能引发社会的动乱。
4、人类在发展AI过程中制定的规则出现漏洞:使得未来的机器人利用了这个漏洞,从而引发人类的危机。就像开发软件,总会存在BUG。
5、AI可能会取代人类工作。随着AI技术的不断发展,越来越多的工作可能会被机器人或自动化系统代替。这可能会导致大量的失业和社会不稳定。
6、AI可能会造成人类的死亡和破坏。例如,在武器系统中使用AI可能导致误判和误杀。此外,AI也可能会被用来进行网络攻击和破坏,从而对经济和国家安全造成威胁。
7、AI可能会导致隐私和安全问题。AI系统可以收集和分析大量的个人信息,这可能会导致隐私泄露和滥用。此外,AI系统可能会受到黑客攻击,从而导致数据泄露和系统瘫痪。
8、AI可能会导致人类失去对自己的控制。随着AI系统变得越来越复杂和智能化,人类可能会失去对它们的控制。这可能会导致不可预测的后果,甚至可能导致AI对人类产生威胁。
为了避免这些潜在的危险,我们需要制定相应的政策和法规,以确保AI的安全和可靠性。此外,我们还需要加强对AI技术的研究和开发,以确保其符合人类的利益和价值观。只有这样,我们才能充分利用AI技术的优势,同时避免其潜在的危险。
人类必须给AI的发展制定出有效的技术规范与道德规范并严格执行,才能减少未来AI对人类的威胁。
在过去几年中,史蒂芬·霍金(Stephen Hawking)、伊隆·马斯克(Elon Musk)、比尔·盖茨等一些名人警告我们应加强关注超级人工智能可能带来的危险后果。而且,他们还把钱用在这方面:包括马斯克在内的几位亿万富翁为OpenAI提供支持,该组织致力于开发惠及人类的人工智能。
不过,对人工智能的依赖日益加深并不意味着就没有风险。事实上,风险早已存在。智能系统已经进入医疗、金融、司法等重要领域的决策过程。我们生活的重要部分有可能冒着未经充分审视的风险。
更重要的是,人工智能有可能产生让人猝不及防的连锁效应,比如改变我们与医生的关系,或者改变小区的治安方式。
那么,问题出在哪里?
与其担心人类被人工智能统治,不如思考因为我们过分相信我们制造的智能系统而可能带来的真正风险。还记得机器学习的工作模式吧:训练软件寻找数据中的规律。一旦训练完成,人工智能的机器就开始分析新的数据。但是当机器作出回答时,我们通常无法知道它的解答过程。
这就存在明显的问题。机器的准确性取决于它学习时所使用的数据的准确性。比如一个系统了解了肺炎患者的死亡可能性较高,所以系统有可能让患者住院。系统在无意中会把哮喘病患者归位风险较低者,这是因为在正常情况下,有哮喘病史的肺炎患者会被直接送至重症监护病房,这种治疗方式会大幅减低死亡风险。但是机器通过学习会认为这意味着哮喘+肺炎=较低的死亡率。
由于人工智能广泛应用于生活的方方面面,从你的信用评级,到工作职位的匹配度,再到罪犯再次犯罪的概率,一旦人工智能犯错——我们并不一定知道——的风险也会增加。
由于我们提供给人工智能的很多数据都是不完美的,我们也不应期待人工智能一直能提供完美的答案。认识到这一点是管理风险的第一步。我们需要加强审视基于人工智能的决策过程。由于我们按照自己的样子制造出人工智能,它就很可能兼具人类的优点和缺点。
人工智能还在研究中,但有学者认为让计算机拥有智商是很危险的,它可能会反抗人类。这种隐患也在多部电影中发生过,其主要的关键是允不允许机器拥有自主意识的产生与延续,如果使机器拥有自主意识,则意味着机器具有与人同等或类似的创造性,自我保护意识,情感和自发行为。因此,人工智能的安全可控问题要同步从技术层面来解决。随着技术的发展成熟,监管形式可能逐步发生变化,但人工智能必须接受人工监管的本质不能改变。
尽管AI技术还处于发展初期,但AI已经展示出惊人的能力,从语音识别到自动驾驶,从金融分析到医疗诊断。然而,对于AI的担忧并非没有道理。有些人认为AI的快速发展可能会对人类就业机会造成影响,甚至会造成某些工作的完全自动化。此外,一些人还担心,如果AI的发展失控,它可能会对人类构成真正的威胁。
然而,AI技术也有其优势和潜力。AI可以协助人类在许多方面取得更高效的成果,包括改进医疗诊断和治疗、优化农业生产、提高交通安全和改善城市基础设施。同时,AI还可以提供新的商业机会和就业机会,为经济增长和社会进步作出贡献。
为了最大限度地发挥AI技术的优势,我们需要认真思考和应对与AI相关的伦理和道德问题。这些问题包括AI是否会导致就业的减少和社会的不平等,是否会违反隐私和安全,是否会受到误用和滥用,是否会损害人类的创造性和自主性等等。因此,我们需要建立一套完整的AI治理体系,以确保AI的研发和应用符合社会和人类的期望和需要。
首先,我们需要加强对AI算法和决策过程的透明度和可解释性。AI算法和模型往往是黑箱,难以解释它们如何做出决策和推荐。这种不透明性可能导致歧视、误判和不公平。因此,我们需要研究和开发一些可解释的AI算法和模型,并确保它们的决策过程是可理解和可追溯的。
其次,我们需要加强对AI的道德和法律审查。由于AI的自我学习和自我进化能力,它们可能会出现不符合人类价值观和伦理标准的行为。因此,我们需要建立一套道德和法律审查机制,对AI的行为进行监督和调查。这些机制包括AI伦理委员会、AI审查委员会、AI监察机构等等。
第三,我们需要促进AI的社会化和民主化。AI技术是一个全球性的技术,它的发展和应用涉及到各种文化和社会背景。因此,我们需要在全球范围内推动AI的社会化和民主化,使AI的发展和应用符合各国人民的利益和需要。这需要政府、企业和公众的共同努力和合作。
总之,AI技术的发展和应用具有极大的潜力和重要性。然而,我们也需要认识到AI技术所涉及的复杂性和不确定性,以及对人类生活和未来的深远影响。在推动AI技术的发展和应用的同时,我们必须认真思考和解决相关的伦理、社会和政治问题。
AI人工智能技术让故人复活,危险的宗教信号
在当今数字化时代,人工智能AI已经成为科技领域最热门和最具前景的领域之一,它已经渗透到各行各业,为人类带来了便利和效率。
然而,随着AI技术的不断进步和突破,有人开始担心AI的发展是否会失控,是否会对人类造成威胁,甚至是否会取代人类。
在中国,多家科技型初创公司利用人工智能技术“复活”已故亲人,使用人工智能技术模拟逝者,根据逝者家人提供逝者生前对话记录、电子邮件或语音笔记等数据,将灵魂转移到虚拟世界,再现死者的精神和声音,死者在自己的葬礼上的讲话或与全息图的互动,客户可以通过视频给已故的亲人打电话,一个与她相似的化身将代替她接听电话,例如,孙凯5年前失去了亲爱的母亲,为了缓解他的痛苦,他决定用聊天机器人和母亲互动对话,通话一开始,孙凯问妈妈“妈妈,你好吗?”,模拟妈妈回答他:“家里真好,阳光灿烂。”孙凯每天都通过视频与他的虚拟对象聊天,孙凯对面的母亲在人工智能的复活后显得栩栩如生,回答提出的问题。
有些技术公司利用AI技术甚至创建了一个“智能墓地”,将坟墓改造成真正的数字终端,让你发现死者的照片、信息和故事,用户甚至可以向逝者提供虚拟祭品,例如焚上香。
一家中国初创公司正在利用深度造假技术来隐藏亲人的死亡,该技术可以将“真实”的人脸转变为另一种身份。例如客户丁丁告诉我们的团队,“我叔叔在一次事故中去世了,我祖母的健康状况不太好,我们又不在她身边,所以,我们宁愿对她隐瞒这个死讯,以不让我祖母过于伤悲“;为此,丁丁每个月都会为祖母安排一次与已故叔叔的通话。事实上,所谓的“叔叔”是一名虚拟对象,他的脸经过数字化处理,看起来就像已故的男子。她的孙女强调道: “奶奶年纪大了,她从来没有注意到两个男人之间的差异”。
数字化是所有行业的未来,因此,一些企业家不惜一切代价使用人工智能技术……,即使这意味着尽可能地突破道德极限。
但需要注意的是,在几乎不容忍宗教存在的政策下,让死者复活的生意是否可以持续下去,值得留意。
细思极恐的《AI的七天》人类文明面临的基本风险是AI
时下的众行业和网络媒体中,AI技术已是一个热门话题。虽然AI可以给现代人的生活带来一些变化,但事物的另一面,也许超出了我们能想象到的极恐!
一个科幻短片《AI的七天》( The Seven Days of A.I.),勾勒出了AI在人类中的七日扩张图。这个科幻短片以非常生动的方式,预测了一下不久的人类和科技未来...
· AI最先用于多媒体中,并得到多个重量级高科技公司开源代码的支持。但很快,这些原始源代码「进化」成了一种新的编程语言,超出了计算机研究人员的掌控。
· 从储存的数据中开始学习,AI可以做出决策了。随后,它被广泛地应用到了人们的衣食住行等社会各个方面。
· 很快AI具备了自我意识,具备了像人类一样的「思考」甚至「感觉」能力。它与每个用户建立了独特关系。一旦具有自我意识,AI将拥有自我保护等一些想法。
· 再后来,AI会让人类在网络上,自己上传自己的思维,放弃自己的身体.....
这个只是一个科幻短片。但实际上,不少科学家们都在担忧,也许有一天,当人类试图要把这些无法控制的电脑和系统关闭时,它们却将自动启动,以确保其自身的存在,那时人类就将面临被毁灭的的厄运。
业内人士的担忧
电脑科学家奥姆亨卓(Steve Omohundro)曾在《人工智能实验与理论》期刊(Journal of
Experimental & Theoretical Artificial Intelligence)发表过一篇文章,他写道:「当电脑资源增加,系统将自然地发展,从刺激反应,到简单学习,到情景记忆,到思考、推理、自我提升,最后完全理性化。」……「目前的电脑基础设施,对具有这种能力的无约束系统的控制能力是脆弱的。」
埃隆·马斯克(Elon Musk)-这位我们熟知的SpaceX 和 Tesla公司的掌门人,也对AI的话题非常熟悉,他曾多次谈到过这个问题。2014年8月2日,马斯克在推文中写道:「博斯特罗姆的《超级智能》值得一读。我们需要超级小心对待AI。(它)有可能比核弹更危险」,在发出此推文的两个月后,马斯克于2014年10月在美国麻省理工学院航空航天系的百年研讨会上,又发出警告,「我认为我们应该对AI要非常小心。 我们生存最大的威胁是什么,如果让我说,那可能就是这个(AI)了! 因此,我们要非常小心。越来越多的科学家认为,也许在国家和国际层面应该有一些监管监督,只是为了确保我们不会做一些非常愚蠢的事情。」
在2017年美国州长协会夏季会议(NGA 2017
SUMMER MEETING)上,马斯克接受采访时,又公开发表言论:「人类文明面临的基本风险是AI」。
很明显,马斯克并不害怕AI本身,而让他忧心忡忡的是,如果AI在不受控制的情况下快速扩张,那后果将会很可怕。2018年,他在《The Joe Rogan Experience 》访谈节目中就明确地表达出了他的担忧。
2023年2月15日,在「世界政府高峰会」(World
Government Summit)上,马斯克再次发出警告,「AI是人类文明面临的最大风险之一。」
退一步审思
日出日落,我们每一天都在忙碌着,似乎让我们感到温馨的是人与人之间的尊重和包容;而充满了诱惑的AI,似乎缺少万物之灵的这种善,它似乎总带有一丝武器般的冰冷感觉...
在我们的生活中,AI等现代科技给人类带来了诸多便利,但细思量,人类真的一定需要这些快速发展的、充满了高危险性的科技吗?人与人之间,真的需要这种无休止的技术竞争吗?现代的所谓高科技会将人类带到何处?
对于这些问题,也许您在《转法轮》这本书的开篇可以找到一些答案,如有感兴趣的朋友,不妨自己可以去阅读和体悟一下。
也许真的是,当人在克制自身的贪婪和狂傲之后,人在平和友善的心境下发展出的技术,才更有益于我们彼此的身心健康。
另外,需要规避AI概念的炒作,
还记得曾经的“万物皆可碳中和”、“万物皆可元宇宙”吗?去年11月以来,借着ChatGPT(聊天机器人模型)东风,人工智能板块一浪一浪地连续高潮,“万物皆可”对象似乎变成了“人工智能”,而当下,AI概念炒作陷入瓶颈,AI创业要先落地;
针对AI可能对人类产生的威胁,10月30日(周一)美国总统拜登公布了一项行政命令,将针对AI(人工智能)行业进行规范和管控,这是白宫首次发布此类行政令。
在此之前,包括谷歌、微软、OpenAI等生成式AI的首席执行长和科技霸主,都四处奔走呼吁建立监管框架,以防范AI对人类造成潜在高风险。
大概在迄今的人类历史上,还没有哪个行业的业主们这么急于让自己“被监管”。
一位匿名的白宫官员称,由于AI的影响面异常广泛,监管方式也面面俱到。他说,“制定AI政策就像进行十项全能比赛,必须处理好诸多不同的问题。安全、平等、隐私...... 所有事情都要顾及到。”
据CNBC的报导,本次行政令由八个关键部分组成。它不仅囊括了安全新规,还有推动民权、促进创新竞争,以确保美国在全球AI竞赛中处于领先位置。它还援引《国防生产法》(Defense Production
Act),要求科企在研发任何可能危及国家或经济安全、公共卫生安全的AI工具时,必须提前知会联邦政府。
具体如下:
——为AI制定新的安全标准。要求部分AI公司与联邦政府共享安全测试结果、商务部制定AI水印指南及网络安全计划,使AI能够帮助识别关键软件中的缺陷。
——保护消费者隐私、制定指导方针,以供各机构评估AI中使用的隐私技术。
——向房东和联邦承包商提供指导,防止AI算法加剧歧视;在司法系统中适当使用AI(包括将其用于量刑、风险评估和犯罪预测等),公正的对待公民。
——要求卫生与公共服务部创建专属项目,评估与AI相关的潜在有害医疗实践,并创建资源帮助培训工作人员负责任地使用AI工具,进而保护消费者。
——提供关于AI对劳动力市场潜在影响的报告,并研究联邦政府如何支持将受AI冲击的工人。
——扩大对气候变化领域的AI研究经费,使具有关键专业知识的高技能移民工人留在美国,促进创新与竞争。
——与国际伙伴合作,在全球范围内实施AI标准。
——为联邦机构使用和采购AI制定指导方针,加快政府对该领域熟练工人的招聘。
白宫副幕僚长里德(Bruce Reed)表示,“这是一项积极战略。它在应对AI安全、安保和信任方面,比全球任何政府出台的监管都更加有力。
一位高级官员称,虽然该行政命令具有法律效力,但总统强调仍需通过国会来制定更全面的立法。
拜登上月就曾表示自己对AI有极大兴趣,他还多次召集关键科技专家、民权领袖和工会共同探讨,如何把AI工具扬长避短,同时保护民众不会受其负面风险的伤害。”
AI峰会焦点:美欧政府谋求人工智能安全监管
由英国主办的首届人工智能安全峰会11月1日登场,全球28个国家的政治领导人和科技高管等出席了本次峰会,讨论如何控制人工智能技术的风险。其中,最受争议的是中国受邀与会,但在最终,中国除派出科学技术部副部长吴朝晖外,中国科学院、 阿里巴巴及腾讯等也有代表出席,吴朝晖在会中称,希望与国际伙伴合作管理人工智能的监督。
香港南雅货币交易所(CNE.HK)注意到,英国首相苏纳克10月下旬曾表示“中国是否参会尚不确定”,而最终中方接受了邀请。据日本共同社指出,英国政府认为,邀请拥有先进人工智能技术的中国参会能使讨论更加深入。一些国家把中国在网络等领域滥用人工智能视为威胁,而英国政府通过提供这些国家与中国之间就安全利用人工智能进行对话的平台,也意在制衡中国。此外还认为这会使峰会更有意义,并提升主办方的声誉。
先前,英国前首相特拉斯和前保守党党魁史密斯批评了邀请中国参与峰会是无视安全威胁,并且中方遵守协议的纪录向来不佳。英国政府则辩称,这是考量到中国在发展人工智能技术方面的作用。
值得关注的还有,出席峰会的美国副总统哈里斯表示,人工智能有潜力制造“对人工智能配制的生物武器的网络攻击,规模超出我们之前见过的范围,可能危及数百万人的生命”。根据她的办公室发布的演讲摘录,她说:“这一时刻的紧迫性必须迫使我们对未来应形成一个集体愿景。”
贺锦丽在周三的发言中敦促全球行动起来,管理AI的风险。她说,尽管AI能给人类社会带来潜在的好处,但它也有可能造成深远的伤害,“从规模超乎我们之前所见的AI网路攻击,到可能危及数百万人生命的AI生物武器,这些威胁通常被称为‘AI的生存威胁’,因为它们当然可能危及人类的生存”,“毫无疑问,这些威胁是深远的,需要全球采取行动。”贺锦丽说。
为期两天的峰会上,哈里斯还将表示,30 个国家已同意签署美国发起的国家军队使用人工智能的政治宣言。
美国总统拜登刚在10月30日签署了一份人工智能行政令,要求美国政府对可能对国家安全、经济、公共卫生或安全构成风险的人工智能系统进行更大的监督,被视为是向世界提供了不同于中国威权模式的具有吸引力的人工智能替代方案。
据美国智库“新美国安全中心”的高级研究员奇卢库里(Vivek Chilukuri)认为,行政令旨在于峰会前重新确立美国在人工智能治理方面的领导地位,并和中国基于大规模监控及社会控制的威权主义的人工智能模式形成鲜明对比。
现在面临的挑战是能够在不阻碍人工智能实验室和科技巨头创新的情况下定义保障措施。与英国不同,欧盟和美国选择了监管道路。
在峰会召开前,法国、德国和意大利的经济部长勒梅尔、哈贝克和乌尔索曾在罗马举行会晤后,呼吁在欧盟层面上对人工智能进行“创新友好型”监管,以减少损害欧洲创新能力的不必要的行政负担。
德国经济部长哈贝克认为,未来欧盟人工智能相关法律的制定必须“基于风险”。鉴于国际竞争,必须进行“战略协调”。
法德意三国经长一致强调,欧盟在人工智能领域具有国际竞争力,欧洲有许多比美国科技巨头更好的公司。但必须加快速度,否则欧盟将失去这个市场。
三位部长已于今年6月在柏林举行了一次会晤,当时讨论的是关键原材料的采购问题。下一次此类会议定于明年初在巴黎举行,主题将聚焦绿色技术。
一些科技高层和政界领导人警告说,AI的快速发展如果不加以控制,将对世界构成生存威胁,从而引发各国政府和国际机构竞相设计保障措施和进行监管。
英国副首相道登周三接受彭博电视台采访时说:中国的世界观与英国不同,峰会的一些会议是我们志同道合的国家一起工作,因此中国可能不适合参加。但这并不会阻止英国在管理AI带来的风险时为英国采取必要的措施。
美国亿万富翁伊隆‧马斯克(Elon Musk)也参加了这次峰会。道登表示,尽管他不认同马斯克的许多观点,但马斯克是一位无可争议的科技巨头,像他这样的人物来参加这次AI峰会,凸显了会议的重要性。
道登还说,国际会议往往是“企业或政府”的会议。但这一次是将两者结合在一起,因为AI正在由那些前沿的AI科技公司进行创新,但政府有责任保护公民免受AI风险的冲击,此次峰会的目的是围绕AI找到“对(AI)风险的共识和评估”。AI带来的最直接风险是错误信息、虚假信息和深度伪造。
美、中等超过25个国家签署了《布莱切利宣言》(Bletchley Declaration),表示各国需要共同努力,建立共同的监督方式,该宣言提出了一个双管齐下的议程,重点是确定共同关注的风险并建立对这些风险的科学理解,同时制定跨国政策来缓解这些风险。
Sora迅速走红会给市场带来什么影响?
继ChatGPT之后,Sora的迅速走红,OpenAI继续给大家带来惊喜,大家继续享受着这一场科技盛宴。
一年前的ChatGPT迅速走红,为市场创造出一轮ChatGPT概念股的炒作热潮。但是,好景不长,ChatGPT概念股的炒作只是一阵风,当风吹过之后,被炒高的概念股再次回归到真实的价值水平。
当年的ChatGPT崛起,被认为是苹果Siri的升级版,更是对传统文案设计、广告策划、翻译等行业造成深刻性的影响。当时,大家都认为自己的工作岗位很可能会被ChatGPT所取代。所幸的是,这只是虚惊一场,AI技术的发展还没有达到高度成熟的水平。
继ChatGPT之后,Sora的迅速走红,进一步激发了大家的创造力,并且让大家对科技创新产生出新一轮的热情。
Sora到底是什么?
根据OpenAI的介绍,Sora可以根据用户输入的提示词、文本指令或者静态图像,生成长达一分钟的视频。最核心的是,Sora可以实现多角度镜头的自然切换,而且故事的逻辑性和连贯性极佳。
简单来说,即Sora是一种视频生成模型,并进一步激发了市场对AI多模态应用的热情。
不过,Sora模型还是有一些局限。例如,目前可以生成60秒的视频,尚未实现长时间的长视频生成。所以,在短时间内,Sora模型很难完全取代电影行业,即使是短视频行业,也未必可以被Sora模型短期取代。
随着时间的推移,加上AI技术的不断升级,不排除未来Sora会进一步升级,并可以生成更长时间的视频,而且可能会实现更强的理解能力与追求更厉害的视频真实感。
科技改变生活,正得到真正的体现
谁可以想象到,十五年前移动互联网还没有得到普及,只用了数年时间,移动互联网却可以在全世界迅速普及。一年前,大家刚刚接触到ChatGPT的概念,在大家还没有充分了解ChatGPT的前提下,Sora模型却诞生了,短短一年时间从ChatGPT发展到Sora,这个发展速度确实让人吃惊。
假如未来Sora模型在AI视频生成能力上可以得到进一步升级,不排除会给电影行业、广告业、短视频业等领域构成深刻性的影响。可以预期,AGI即人工通用智能有望成为现实,未来甚至可以完全模仿人类智能的行为,并且可以执行任何人类智能活动的计算机系统。
从ChatGPT到Sora,再到未来可能实现的AGI,都离不开强大的算力支持。同时,也离不开模型的加速迭代影响。
从OpenAI的ChatGPT和Sora到微软的Copilot,再到谷歌的Gemini 1.5 Pro等,近年来科技领域频繁出爆款产品,全球主要科技巨头都在积极创新,不断提升自身的竞争力。很显然,在未来的日子里,AI依然是科技巨头们较量的主场。
Sora概念股掀起普涨潮,也是对Sora发展前景的积极看好。但是,无论Sora的发展前景有多好,最终Sora概念股的股价表现,还是需要反映到真实的基本面之上。这个时候,就更容易判断出真伪Sora概念股了。
我们不难理解美股“七巨头”股价与市值可以屡创新高,在美股科技股屡创新高、巨头们频出爆款的背后,离不开强大的创新能力与技术创新水平的支持。没有长期的人才储备、技术积累以及研发投入,也很难实现科技巨头们的市值奇迹了。
十年之后的世界,不知道会发展到什么程度?科技的高速发展,正深刻影响着我们的生活,但这真是一把双刃剑。
AI视频生成工具Sora是否可以挑战"防火墙"?
近日,与微软(Microsoft)和谷歌(Google)网络技术高度相关的人工智能公司OpenAI开发出一项新系统Sora。只要使用者向其提供文字描述,该系统便能透过人工智能进行信息分析,并制作出高质量的60秒的视频影像。
外界关注,这项技术是否会沦为制造和传递虚假信息的工具,又是否能成为突破网络信息封锁的重要技术?
先前推出ChatGPT而撼动科技界的人工智能公司OpenAI,近期公布了最新视频生成系统Sora。只要用户输入提示词,Sora便能产出细致、生动的高质量视频。
据美国《华尔街日报》披露,目前Sora还只处于技术发布阶段,尚未提供给普通民众使用。OpenAI表示,该系统同时也正寻求学者及科研人员协助研拟相关配套措施,以避免Sora被有心人士滥用。
显然,这项人工智能的重大技术突破在受到海内外舆论关注的同时,如何保护网络信息安全也随即成为各方关注的焦点。OpenAI指出,它已经意识到Sora可能会被用来制造虚假信息或仇恨内容,特别是人工智能以假乱真的技术可能会对美国即将到来的总统大选制造混乱,因此该公司正在研拟相关措施,以禁止使用Sora做为选举造势的工具等。
对此,美国智库兰德公司(RAND Corporation)国际防务高级研究员何天睦(Timothy Heath)在接受本台记者采访时警告说,Sora 有可能成为中国当局扰乱台湾及美国内政的新工具。他说:“Sora 可能被中国用来在台湾,乃至于美国,生成非常令人信服的假新闻和错误资讯。它可能会加剧目标国家的社会和政治分裂。"
华盛顿智库哈德逊研究所(Hudson Institute)高级研究员亚瑟•赫尔曼(Arthur Herman)也指出,Sora 的出现是人工智能的重大应用进展,它可以帮助各国民众跨越语言的鸿沟进行交流,只要透过文字生成视频,各国民众便能迅速接收到相同的信息。与此同时,尽管OpenAI会设置多项避免恶意利用Sora的安全措施,但虚假信息制作的视频可能无法被完全杜绝。
赫尔曼说道:“控制人工智能最好的方法是运用自然智能,也就是确保人们理解看到、听到的一切并非都是真实的。如果我们希望在人工智能领域赢过中国,我指的不只是Sora,也包含TikTok等等,我们就必须确保人们够聪明并且能具有批判性思考,人们需要对他们接收到的信息抱持更多审视。"
从另一个角度来看,外界同时关注Sora创作视频的方式能否成为突破中国网络信息审查的媒介,从而帮助民众获取并传播被当局认定为敏感信息的资讯。赫尔曼对此给予了肯定的答复:“可以将文字转变成看起来无害的图像,并以此突破中国防火墙的常规检查。虽然我怀疑中国正在着手对Sora进行应对,但我们依旧需要做好准备,鼓励中国民众使用Sora。
不过,前新浪微博的内容审核员刘力朋对此则有不同的看法。他在接受本台采访时表示,尽管Sora能协助制作视频,但用户要上传这些视频还是需要经过网络认证以及重重审核,因此中国当局依旧可以严密把控互联网上的言论:“(中国)网络防火墙内的审查与反审查来说,(Sora)不会产生任何影响。因为中国网络审查已经把所有的关卡都卡得很严了,你没办法透过一个简单的工具去改变什么现状,没有什么空间可以让你去发挥。"
刘力朋还表示:“你要发视频的话,还是要通过一个已经实名认证的帐号去发;发出来的视频还是要经过审查,经过视频平台的一审、二审、三审,把它都过完以后才能上线。”
专家:中国难以追求科技创新同时进行思想束缚
Sora问世后,网络热议的话题之一集中在了为何中国的科技创新能力日趋落后国际水平。美国纽约美中科技交流协会会长谢家叶就此告诉本台记者,中国缺乏科技创新的根本原因,就在于学童从接受正规教育之初就缺乏思想自由。
谢家叶说:“中国虽然也是叫大家创新,但是事实上,整个教育系统都是给人束缚的,整个社会氛围、政治氛围是不让人家说话的,那怎么会有自由思想呢?你不能说我只希望你在科技上有自由思想,其他东西都不许自由,这是不可能的。"
C&E财经视点2024-2-23
|