数据中心 频道

以金融和投资为例简析被夸大和误解的AI  

  【IT168 资讯】人工智能在2017年引发了大量的头条新闻。PLC基金管理公司Man Group首席执行官卢克·埃利斯(Luke Ellis)表示,“如果计算能力和数据生成以目前的速度持续增长,那么25年内在机器学习领域可能投入99%的投资管理。”

  尽管有不少乐观的评论出现,但目前人工智能的进步还没有转化为卓越的回报。据Wired的消息,过去几年的定量基金平均未能超越对冲基金(自身未能超越市场表现)。

  大多数人不明白人工智能,特别是当今金融领域使用的人工智能,缺乏应用深入的专业知识来创建清晰的数据和关系,这是任何成功的投资战略或人工智能的基础。获胜的游戏是一回事,但现实世界并不是在严格界定的空间中遵循不变的规则的游戏。在现实世界中,人类改变规则,违反规则,或者甚至根本不存在规则。目前的人工智能在没有大量的人工干预的情况下,在真实世界的环境中是无处可寻的。

以金融和投资为例简析那些被夸大和误解的人工智能

  寻找人才

  AI今天最大的问题之一就是没有足够的专业知识与建立AI的程序员沟通的兴趣和能力。程序员不了解他们提供给人工智能的数据,而分析师们缺乏对该技术的了解,无法了解程序员需要了解哪些源数据并解释结果。

  这种脱节造成了人工智能在金融和投资方面应用的一些公开的问题:

  ·大多数AI公司最终将大部分资源花在数据管理和数据清理上,而不是技术上。

  ·机器经常发现虚假的相关性,或者只在过去工作,但在将来不适用。

  ·许多人工智能系统变成了“黑匣子”,没有明确的基础或战略,就吐出投资建议。如果人工智能不能向人类表达“如何思考”,那么投资者如何用大笔资金来信任它呢?

  具有弥合这种鸿沟的技能和知识的人是金融界最为稀缺和最有价值的人。十个金融服务公司中有九个已经开始使用AI技术,他们都在这个稀缺的劳动力市场上竞争。

  由于规模和资源的限制,最大的金融公司将是技术进步的最大受益者。大银行能够支付更多的钱给人才,他们有最大的财务数据存储,从而帮助他们的新程序员。

  一些银行已经在认真地努力获得必要的人才。比如,瑞银(UBS)正在进行人工招聘,而摩根士丹利(MS)的程序员和财务顾问则共同合作打造“下一个非常好的行动”,该平台利用机器学习来帮助其顾问向客户提供个性化建议。

  这些努力最终应该得到很大的回报,但现在仍然处于起步阶段。金融机构在真正实施人工智能之前还有很长的路要走。

  人工智能的大(数据)问题

  世界上数字数据的总量每两年翻一番。随着数据量呈指数增长,大部分数据缺乏机器分析所需的结构。因此,人工智能项目本来可以减少对人力的需求,但需要无数的工时来收集、清除和格式化数据输入。

  Virtova的创始人Sultan Meghji表示,许多AI初创公司至少花费了一半的资金来清理和管理数据。每个人都想谈论如何教计算机思考,但没有捷径或替代机器学习的数据集。

以金融和投资为例简析那些被夸大和误解的人工智能

  为了训练人工智能,你需要一个训练数据集来学习。训练数据集往往有两种。首先,你有相对较小的、准确的数据集,没有足够的不同种类的例子是有效的。对这些数据集进行训练的AI在解释训练数据方面很有帮助,但是他们无法处理现实世界的变化。

  其他训练集很大,但不是很准确。在这种情况下,用AI可以看到很多例子,有时候会有不正确的数据,但是没有给出清晰而一致的指令来说明如何回应。对这些较大的、不准确的数据集进行训练的人工智能通常决定了从数据中学习的一致的东西很少,并且能够自己做的很少。

  为了获得成功的机器学习,训练数据集需要既准确又广泛的代表性。换句话说,训练数据需要准确地表示尽可能多的现实世界中发生的事情。我们还可以期待机器能学习到有用的东西么?

  这就是人工智能面临的挑战:如果没有好的训练数据集,机器就无法学习,创建好的训练数据集比大多数具有深度学科专业知识的人们所需的时间要多。大多数具有专业知识深度的人需要编写一个良好的训练数据集,但通常他们对这种平凡的工作并不感兴趣。另一种方法是让大量的人员掌握有限的专业知识来完成这项工作,但是迄今为止这种方法并不太成功。

  在金融和投资领域,大数据问题更为严重

  从理论上讲,管理训练数据集在财务上应该不那么具有挑战性。毕竟,财务数据是以向美国证券交易委员会正式提交的财务报表的形式进行组织的。然而,任何一个外行人都可以很快地看到,在这些文件中,其实没有那么多的结构(人类并不总是遵守规则)。另外,确实存在的结构对AI来说并不是那么有用。事实上,这可能是有害的。

  想象一下,一台计算机想比较可口可乐(KO)和百事可乐(PEP)的财务状况。当计算机通读财务报表时,如何知道留存收益和再投资收益之间的关系呢?行业团体多年来一直试图建立一个标准化的金融术语来解决这个问题。

  理论上,XBRL(可扩展商业报告语言)的发展将解决这个问题。在实践中,XBRL仍然包含太多的错误和自定义标签,允许全面自动阅读财务报表。即使是最聪明的机器,也需要深入的主题专业知识的人才培训,才能理解财务报告。

  如果没有成熟的技术和专家分析师的配对,任何人工智能在金融方面的努力都注定要失败。将一堆非结构化的、未经验证的数据倾倒在电脑里,期待它提供一个投资策略,就像把食品柜里的东西倒进烤箱里,等着烤一个美味的馅饼。

  即使财务数据是经过结构化和验证的,对于一台机器来说可能也没有用,因为人工智能很难分辨哪些数据是有用的,哪些不是。大量可用的财务数据意味着不可避免地会有大量的明显的模式,但实际上是纯粹的随机性的结果。这种现象被称为“过度拟合”,这是斯坦福大学机器学习在线课程中的一个公认的问题。

  过度拟合不仅仅是一个AI问题。人类一直在看到没有真正存在的模式(启发式)。至少,我们可以意识到这个缺陷,采取措施试图抵消它。尽管计算机很复杂,却不能要求它们具有同样的意识水平。当程序员设计机器来寻找模式时,这些就是那些机器要做的事情。

  随着AI变得越来越复杂,过度拟合的问题变得更糟。曼氏集团量化基金首席数据科学家安东尼?莱德福德(Anthony Ledford)表示,“你的模型越复杂,解释用于训练的数据就越好,而且将来解释数据的能力也越差。”

  今天的许多量化基金只是采用从过去的数据挖掘的模式,希望这些模式能持续到未来。实际上,这些模式中的大多数是要么是随机的结果要么是不存在的条件。

  我们再次看到人工智能与人工智能配对的必要性。机器可以比任何人类更快更高效地处理数据并查找模式,但是现在他们缺乏对这些模式进行审计的智能,也不知道它们是否可以用来预测未来的结果。

  AI是一个黑匣子

  当然,要审计人工智能的结果,人类需要能够理解人工智能的“想法”。他们需要对机器使用的流程和发现的模式有一定程度的了解。

  现在,大多数AI对于潜在的用户来说是不够透明的。人工智能算法常常是一个黑盒子,它接收数据然后产出结果,不存在透明度。

  如果我们希望机器能够按照它们所需要的规模进行操作,那么这个问题是不可避免的。进入人工智能的代码非常复杂,以至于很少有人能够在2017年成为人工智能的头条新闻。  

以金融和投资为例简析那些被夸大和误解的人工智能    

  事实上,软件甚至不必达到这样的复杂性就能够处理这些问题。想象10年前丰田凯美瑞遭遇的意外加速的问题。

  如果支持汽车突破和加速的人为控制的软件都如此复杂,那么就想象一下,财务建模等更复杂的活动是否可能会出现更多的混淆和容易出错的情况。一行代码中的一个错误可能会改变整个系统的功能。软件不会中断,只是执行一个不同的任务,可能当有人意识到这个问题的时候已经太晚了。

  这个问题由于具有足够的金融专业知识的人与程序员之间的鸿沟的加大而加剧。财务专家不明白软件是如何工作的,而程序员不明白财务工作的方式。金融远不是经历这个问题的唯一部门。

  只要人工智能仍然是一个黑匣子,其效用将受到限制。最终,缺乏透明度可能会导致重大但目前还没有被发现的失败。在这之前,投资者很难将大笔资金投入到他们不能信任的项目中。

  前进的道路

  对于所有这些挑战,AI将继续扩大它的影响力。金融公司没有其他办法来实现降低成本和改善服务的双重任务,而技术是分析大量公司财务数据并满足“托管义务”的唯一解决方案。

  了解这一事实并采取具体措施投资于技术的公司将比竞争对手具有显著的优势。

0
相关文章