专业性投资者的交易策略随着技术进步也在不断演进中。由于现代大规模资金的管理,都需要面对交易下单的问题。复杂而又频繁的交易操作很难仅仅通过人工交易方式来完成。人工下单方式在执行时间不够充裕的情况下,就只能简化操作流程,从而导致下单的随意性加大,不容易争取到较好的交易价格和较低的冲击成本。于是,程序化操作的算法交易方法应运而生。
机构投资者满足所有投资者交易的一般特征,交易订单出现正态分布,采取了适合市场环境的交易策略,以满足市场中换手率状况来避免价格冲击。所以,作机构投资者会采用算法交易(algorithmic trading)的方式。这种交易方式在交易执行之前,通过电脑程序将大单切割成许多小单来执行,以避免影响价格,根据NYSE网站统计,近几年来纽交所程序化交易量所占比例基本维持在30%左右。
算法交易(algorithmic trading)是指事先设计好交易策略,然后将其编制成计算机程序,利用计算机程序的算法来决定交易下单的时机、价格和数量等,并且结合当前行情的变化自动作出反应。计算机程序的算法将大额的交易分解为若干笔小额的交易,以便更好地减小交易的冲击成本。
算法交易主要有两个目标。一个目标是尽量减小下单的冲击成本,这个主要通过大单拆小单来执行以达到目的。这其中有两个要点:一是分拆成的交易次数必须足够多,只有交易次数足够多,这样每次报单的数量才不会大,这样在市场上比较容易实现成交。当然这也需要根据该股票的市场流动性情况来加以调整。二是虽然把大单拆成小单延长了下单时间,这里面存在未来走势的不确定性风险。但是当日接下来时间段的走势不易判断,长期来看几乎是随机的。所以,我们宁可延长下单时间这个不确定的风险,以得到一个减小冲击成本的确定性的好处。
另一个目标是尽量成交到比较好的价格,国外往往设计了两个验证策略好坏的比较基准,一个是时间算术平均价(Time Weighted Average Price,TWAP)报单,比如开盘后每过5分钟,挂一笔单子出去,最后报单成交价接近于一天的按时间计算的平均价。另一个是成交量加权平均价(Volume Weighted Average Price,VWAP)报单,对历史的成交量进行估计。然后根据实时行情中交易量的大小来决定报单的大小,最后报单成交价接近一天的交易量平均价。
算法交易对很多大型机构而言是充满机会的。以美国次贷危机时的某些机构投资者的交易为例。2007年8月次贷危机开始席卷美国、欧盟和日本等世界主要金融市场。在这场危机中,贝尔斯登、雷曼兄弟等大投行相继破产,房利美、房地美被接管,标准普尔指数于当年10月达到1576点的最高值后一路下跌至2009年3月3月的667点,在经历这样一个系统性下跌后,部分对冲基金利用算法交易以及股指期货进行对冲避险。
截至2007年11月,利用S&P500小型合约进行风险对冲的交易占其交易的64%,而从2008年8月S&P500指数大幅下跌开始,套保交易也同时开始增加,2008年11月甚至高达79%。与此同时,各种采用不同管理策略的对冲基金表现出较强的抗跌性,市场中性策略由于近乎完全对冲掉系统风险,在整个次贷危机中表现平稳。对冲基金在次贷危机中的良好表现与同时股指期货套期保值交易占比的大幅提高有着密切关系,这些都离不开电子化交易。
不过,专业性机构投资者的算法交易策略对市场波动存在一定的负面影响。2010年5月6日道琼斯指数在短短5分钟内暴挫近千点,数十只股票的股价被打落至“零”,比如埃森哲(Accenture)一度下跌99 %,这种以低于1美元的价格进行交易触发更多的止损盘(stop loss order)和动态对冲盘的指令(算法类交易的一种,algorithmictrading),有些美国专家认为①,华尔街证券交易系统的“系统性缺陷”,即股票的“高频交易”是造成这场股灾的罪魁祸首。
所谓高频交易,是运用超级计算机的速度优势,获得比整个市场更快的市场行情以及下单速度。同时计算机可以根据不同算法程序下单并自动决定交易。资料显示,目前美国从事证券投资交易的金融机构多达2万家,其中有40家左右主要以高频交易为主,但产生的交易是则占到整个市场股票交易量的75%;同时,在美国的对冲基金中,则有大约10%的资产是用来做高频交易的。
由于计算机持续会自动发出买入或卖出指令。当大盘指数的波动达到一定程度,或股票上涨、下跌达到一定比例,就会自动触发这些指令。所以,当市况发生异动时,数千个本质上交量策略基本一致的电脑量化交易模型所做出的交易决策是极其相似的。指数的异动,带动华尔街上数以千计的量化交易程序自动启动,开始大量抛售股票,造成整个美国股市当日全线的“自由落体”运动。