由于对人工智能最终会扼杀创造力的担忧,末日预言并不新鲜,正如Crunchdao的首席技术官(CTO)菲利普·瓦西堡所言。然而,瓦西堡认为,即使是一些最成功的技术解决方案也曾面临类似的抵制,最终证明它们是增强人类创造力的工具。
在为生成性人工智能辩护时,瓦西堡告诉Bitcoin.com新闻,技术并没有扼杀人类创新,而是证明了“一个更强大的工具,降低了创造力的障碍。”他指出,任何人都可以轻松使用人工智能,通过精心设计的提示制作高质量的视频,支持这一论断。
此外,他还认为,生成性人工智能并没有像一些批评者所指出的那样贬低人类创造力。他认为,这表明“生成性人工智能增强,而不是取代创造过程。”
关于对人工智能的低信任,Crunchdao的CTO指出,隐私担忧和失业担忧是一些关键因素。尽管不是“万灵药”,但CTO认为,去中心化可能是将人工智能与公平和自主等价值观对齐的步骤,这可以建立信任。
在与Bitcoin.com新闻分享的其他书面回答中,瓦西堡谈到了人工智能的风险以及当前工程师如何帮助减少这些风险。他还对迄今为止采取的监管措施发表了看法。以下是瓦西堡对所提问题的回答。
菲利普·瓦西堡(PW): 人工智能的低接受度受到误解、隐私担忧、不准确性、快速发展和失业担忧等因素的驱动。去中心化可以通过用户控制的数据改善隐私,通过可审计的系统增加透明度,并减少集中控制来提供帮助。虽然不是万灵药,但这是将人工智能与公平和自主等价值观对齐的一个步骤,可以重建信任。
PW: 人工智能代理将成为一个主要趋势,特别是在区块链生态系统中。这些系统为机器人量身定制——数据是可访问的,系统是可组合的,交互是无缝的。随着金融行业转向区块链,人工智能代理利用这些数据的潜力将会增长,推动更智能的自动化、优化以及分析和决策的创新。
PW: 通过代币经济学打造网络效应:在传统应用中,采用依赖于构建出色的产品和找到用户。而在Web3中,代币经济学是推动网络效应的关键。设计代币经济学时必须深思熟虑,以奖励早期采用者并在参与者之间对齐激励,以促进增长和合作。
决定去中心化的程度:完全去中心化的协议是最终目标,但过早实现完全去中心化可能会减缓产品开发和决策。找到初始协议迭代的正确平衡是具有挑战性的,但对长期成功至关重要。
监管合规:在一个新兴领域运营意味着要应对不明确的法规,这需要大量的时间和精力。在保持敏捷的同时构建合规产品是一项持续的挑战。
PW: 这种恐惧在每一项新技术出现时都会出现——书籍、计算机、互联网,您说的都可以。然而,这些技术最终都增加了人类的创造力。在我看来,生成性人工智能也不例外。
它只是一个更强大的工具,降低了创造力的障碍。例如,您现在可以通过精心设计的提示制作高质量的视频,而这些在以前需要巨大的预算和大量的努力。
人类创造力并没有消失;它正在转变。我们不再专注于操作任务,而是转向构思、方向和规划。生成性人工智能增强,而不是取代创造过程。
PW: 人工智能系统在很大程度上依赖于人类输入,因此让这些系统奖励它们学习的数据的创造者是有道理的。在CrunchDAO,我们正在构建一个体现这一原则的系统。随着系统的成熟和变得更加自主,我们确保知识产权归创作者所有。每当他们的模型被使用时,他们就会获得版税,从而创造出被动收入的潜力。
此外,我们计划利用系统生成的收入进行代币回购和销毁,为网络参与者提供进一步的收益。这种方法不仅对齐了激励机制,还确保了透明度和问责制。我预计类似的模型将在其他去中心化系统中出现。
PW: 我对我们明年正在扩展的实时预测系统特别感到兴奋。这些系统处理实时数据流以生成预测,首先是中间市场价格预测。下一个用例可能会集中在改善链上系统上,为去中心化生态系统创造即时和可操作的价值。
更让我兴奋的是这些系统的演变。它们可以不断调整,新的模型可以添加,输出可以通过可组合的方法进行汇总。多个参与者共同优化预测,确保最佳想法脱颖而出。这创造了一个透明和开放的系统,任何人都可以参与,贡献价值创造的人会得到持续的奖励。
至于去中心化计算,它是CrunchDAO路线图的核心。它与我们民主和可扩展的预测建模生态系统的愿景相一致,能够实现实时的人工智能/机器学习能力,同时确保在生成预测和洞察时的效率、公平和包容性。
PW: 目前,我们的数据科学家和博士在预测中间市场价格、因果分析、癌症预测和投资组合管理等主题上进行高水平挑战。公司和基金会会找我们测试和挑战他们的内部方法,通常会导致新方法和更有效方法的发展。这些挑战以锦标赛的形式进行,我们的去中心化方法多次超越传统的内部模型。
但这只是开始。我们正在构建一个去中心化网络,参与者可以贡献模型和预测,将平台演变为一个协议驱动的创新预测建模生态系统。这种方法促进了合作,激励了创造力,并确保持续改进,创造出一个比集中式替代方案更具动态性和有效性的系统。
PW: 机器学习本身并没有固有的风险,尤其是在我们这种情况下,它是通过分析数据来寻找预测。当人工智能被个人或小规模团队使用时,我并不太担心。这只是一个增强创造力或改善流程的工具。这并不是说这不会被用于错误的结果,但这对人类并不是风险。
真正的风险出现在国家或大型实体使用人工智能时。这些参与者有资源在大规模上使用人工智能,可能用于监视、操控或自主武器系统。问题不在于技术,而在于其使用背后的意图。
BCN: 你认为人工智能在产品开发决策中应该扮演什么角色,你是如何将人工智能驱动的洞察融入你之前的角色的?
PW: 人工智能已经通过分析工具塑造了产品开发,帮助团队得出洞察。例如,在Dune,我们构建了帮助创建或修复SQL查询并生成可视化的人工智能系统,使决策过程更加流畅。
在CrunchDAO,我们进一步设想了一个旨在解决不同问题的模型网络。这些模型根据其效用和影响获得奖励和提升,使生态系统能够随着时间的推移自我优化。
这与我所预见的未来相一致——人工智能代理持续监控数据,学习模式,主动生成想法或提案,从而推动决策中的效率和创新。
PW: 现在还为时已早,无法判断这些担忧有多合理。人工智能仍处于初期阶段,虽然不可避免地会出现误用或意外后果,但我并不预见在平民使用这项技术时会出现重大问题。是的,会有错误的使用案例——例如虚假信息或诈骗——但技术本身通常提供了平衡这些风险的工具,比如用于欺诈或虚假信息检测的人工智能驱动系统。
我更担心的是,当人工智能被武器化或由国家层面或大型实体控制时。这里的风险,如自主武器、监视或大规模操控,远远更大。如果只有大型实体或国家能够控制这项技术,那将特别令人担忧,因为这可能会集中权力并造成重大不平衡。
PW: 有一些提议的法律,但目前还没有很多活跃的法律。总体而言,拥有监管清晰度是一个积极的步骤,因为它为开发者和企业提供了指导方针。然而,如果法规变得过于严格或未能适应人工智能技术的快速演变,就会真正危害到创新。尤其在这里,我们正处于人工智能繁荣的开端,未来几年会发生什么仍不清楚,无论是从创新方面还是监管方面。
根据我的理解,平衡在于制定解决关键问题的法规——如偏见、隐私和问责制——而不为初创企业和创新者创造不必要的障碍。与行业专家的互动和迭代的政策制定可能会有所帮助,这似乎目前正在发生。
PW: 我不是大型语言模型(LLM)开发和训练的专家,但我怀疑我们可能会看到那里的进展达到一个平台期,因为更大的模型在计算上变得成倍昂贵,而获取用于训练的新数据的成本也在增加。例如,考虑到这些挑战,OpenAI的单位经济学目前看起来并不可持续。
尽管如此,现有和即将推出的模型已经非常强大,这就是我们看到广泛集成的原因。随着技术的成熟和理解的加深,我预计会出现一个创新的时期,新方法和应用将蓬勃发展。特别是,我对更多系统转向区块链感到兴奋。人工智能代理利用区块链数据的潜力——可访问、可组合和无缝互动——是巨大的,推动更智能的自动化、优化以及分析和决策中的创新。
CrunchDAO在这个领域独具优势,构建基础设施以支持和塑造这些新兴趋势,确保去中心化解决方案在人工智能/机器学习演变的下一个阶段中发挥关键作用。
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。