"); //-->
在业界,每逢技术变革,就离不开技术布道者和科学家的身影,他们普及和阐释技术,在变革初期便预测未来技术的发展趋势。成立于 1993 年的全球软件及咨询公司 Thoughtworks,汇聚了这些具有前瞻性眼光的人才。
“软件开发教父”Martin Fowler 曾在加入 Thoughtworks 后这么评价它:这不是一家软件开发公司,而是一场社会实验。公司创始人 Roy Singham 作为这场实验的发起者,试图挑战传统的商业观念,他认为一家公司不能完全由高能力的人组成,而是需要有机结合不同能力的人,从而形成多元良性的商业环境。
2006 年,墨尔本。Kristan Vingrys 作为测试主管加入 Thoughtworks。在进入管理团队之前,他花了七年时间通晓「分布式敏捷」的开发方法,先后奔赴 Thoughtworks 的澳洲和英国担任高管,并在今年接管了全新启动的亚太区业务,希望通过创新技术实现每一位客户的使命。
毫无疑问,Kristan 属于“高能力的人”。时至今日,他已经拥有超过 20 年的技术领导经验,在欧亚两洲四处奔波的他拥有多地域的管理开发经验,对于全球化团队的管理得心应手。然而,Kristan 的座右铭却是“过去的经验会影响我对任何新事物的第一印象”。
没有经验,我们就不能合理判断一项技术;依赖经验,我们可能会失去创新的能力。那么,开发者究竟该如何运用自己的「经验」?CSDN《近匠》特派记者奔赴 Thoughtworks 国内最大办公室:古城西安,面对面采访了时隔 4 年再次来华的 Thoughtworks 亚太区总裁 Kristan Vingrys,一同领略这位技术预言者的前瞻思维。
用现有的「经验」 评估 ChatGPT 为时过早
每六个月左右,Thoughtworks 都会发布一期技术雷达,它记录了开发者感兴趣的最新技术趋势和潜在风险。技术雷达涵盖了前沿的技术,并被分为数百个条目,Thoughtworks 按照象限和圆环对条目进行分类(如图 1 所示)。
图 1 技术雷达的四种生命周期
象限代表条目的不同种类。圆环显示出条目所处在的生命周期:采纳、试验、评估和暂缓。
《新程序员》:技术雷达是怎么做出来的?你们要如何评估这些技术的重要性、潜在影响和风险?
Kristan:新的一期技术雷达来自世界各地的 21 位专家针对每个热门应用程序中的技术的评估。在小组开会之前,这些专家与当地技术人员举行会议,以收集不同角度的见解。技术雷达的诞生基于他们的实际经验和对技术的使用,而不仅仅是阅读或思考。
《新程序员》:决策由 21 位专家作出,那网络评论或社会舆论会影响结果吗?
Kristan:舆论总是会起到影响作用,但最终决定还是由专家小组作出。技术雷达所有的贡献都来自基层工作者,而专家是最终决策者。
《新程序员》:本期技术雷达加入了最新热点:ChatGPT(如图 2 所示)。它在技术雷达中被列为「评估」而不是更为成熟的「试验」级别。您认为它还面临着哪些风险和挑战?
Kristan:与其说风险和挑战,倒不如说全世界目前都缺乏充足的实际应用经验来对 ChatGPT 进行全面评估。人类从未有过和大语言模型进行对话式交互的体验,这需要更多的时间观察。我们的专家团队使用 ChatGPT 做过许多概念验证,但在日常生产环境中的使用还比较有限。
图 2 技术雷达:ChatGPT
《新程序员》:在技术雷达中,领域特定的大语言模型同样被列为「评估」级的技术(如图 3 所示),它是否面临着与通用语言模型相同的伦理和法律问题?例如,它是否存在对特定社会群体的歧视性?像是把 "doctor" 和 "programmer" 这样的词语与男性联系在一起,或把 "nurse" 和 "homemaker" 与女性联系在一起。
Kristan:我认为任何语言模型、任何代码都有可能出现偏见。其中一些偏见可能是有意识的,但在大多数情况下,这些偏见其实是无意识产生的。你提到的例子里,人们无意识地将某个角色与特定性别相关联,这种偏见会自然地被构建到模型当中。
这是一个需要首先在文本中解决的问题。我们需要有人来质疑那些无意识的偏见,分析和处理带有偏见的文本资料,因为这些偏见往往是难以察觉的,且不同的人会有不同的无意识偏见。所以,如果工作团队具备多元化的思想,就更有可能发现并解决这些特定的偏见。
图 3 技术雷达:领域特定的大型语言模型
《新程序员》:您对 ChatGPT 的商业化有哪些看法?GitHub Copilot 会是一个成功案例吗?
Kristan:这两者都值得我们的持续关注。目前可能存在一些过度炒作,但这在新技术出现时是常见的情况。回想一年前,很多人都幻想过谷歌眼镜会开拓新的数字宇宙,我们将在智能世界里行走,所有的一切都要依靠谷歌眼镜来实现。技术趋势的发展就是这样,我们会看到无数炒作,然后逐渐回归到现实。
AI 带来的变革必定会打破现有模式,并改变企业的解决方案,同时影响我们对代码和技术问题的思考方式。因此,我们需要持续关注正在发生的变化,并继续观察和关注这些技术的发展。
《新程序员》:但 Copilot 出现过一些严重的隐私和安全问题,这是否为 ChatGPT 的商业化以及你们对它的评估带来了不小的影响?
Kristan:这也是我们正在重点关注的问题,也是一个需要解决的问题,只有解决了它才能更广泛地应用这些技术。目前,使用 ChatGPT 生成代码需要获得许可。为了解决代码重复使用、盗用和信息泄露可能带来的工程和安全威胁问题,微软正在创建更多的私有实例。
所以,我认识的很多高管都在思考两件事:如果我不跟随这场潮流,我会落后吗?如果我也加入了 AIGC 浪潮,被黑客攻击了该怎么办?总之,这些风险问题可能要靠微软自己解决了。
《新程序员》:只要是真正有用的产品,用户还是会顶着隐私安全的风险去使用它们。Facebook 和 iPhone 曾遭受过极其严重的黑客攻击,但人们仍然愿意使用它们。
Kristan:人们确实会为真正有用的产品付费,但他们现在使用这些软件也更加谨慎了。而且,个人信息和企业信息的性质不同。对于个人用户来说,他们会评估自己信息被窃取的风险,并更关注实用性。而对于组织来说,发生入侵事件意味着面临重大损失,轻则数百万美元的损失、停业等,重则面临数十亿美元的罚款和诉讼。所以,个人和组织分别存在着不同的风险层级。
《新程序员》:除了技术雷达,你们还考虑过将 ChatGPT 用于其他工作吗?
Kristan:目前,我们还在努力确保自己对 ChatGPT 有清晰的认识和理解。Thoughtworks 将进行大量的实验,和客户合作进行概念验证和黑客马拉松等项目。在我们积累了一些实际应用经验之后,我们可能会在未来的工作计划中加入更多的人工智能。
我们已经为员工提供了许多关于 ChatGPT 的指导文章,但在我们真正将大模型用于解决客户的实际商业问题并投入到实际生产之前,我们将继续把 ChatGPT 列为「评估」级别。
《新程序员》:想必 ChatGPT 能对你们的分析工作起到很大帮助。
Kristan:ChatGPT 并不能总是提供正确的信息或答案。它无法确定什么是正确的信息,甚至无法对同一个问题提供稳定的答案。因此,数据集以及其所经历的训练过程对于大语言模型的实际表现非常重要,这也决定了我对 ChatGPT 可靠性的最终评价。当然,ChatGPT 肯定会提高分析工作的效率,因为它能够更快地提供答案。
我想分享一件在澳大利亚工作群里发生的趣事:曾有个人询问 ChatGPT,mayonnaise(蛋黄酱)一词中有多少个“n”?它回答说,四个(见图 4)。然后他对着 ChatGPT 继续说,你能给我展示 mayonnaise 中四个“n”的位置吗?结果,ChatGPT 真的回答了 mayonnaise 这个单词四种不同的拼写方式。虽然这四个拼写都是真实存在的,但 ChatGPT 还是弄错了那个人本来想问的问题——mayonnaise 里面应该有两个字母“n”。
图 4 虽未完全复刻,但笔者还是成功让 ChatGPT 介绍了“蛋黄酱的四种写法”
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。