除了神经网络的方法,还有什么算法可以实现机器的训练和自我学习?

Discussion in 'Model and Algorithm' started by clmtw, Jul 6, 2009.

  1. Statistical Models are also highly depended on pervious data.
     
  2. right
     
  3. 早期的自然语言自动翻译就是基于规则和推理,但是搞不下去,规则太复杂,有些规则甚至是互相矛盾的。后来IBM开始以统计为基础的翻译,说白了就是学习几乎是一对一的翻译,学得越多,翻译得越地道越准确。这个其实和大脑的学习过程有点相似。:)

    这个过程里面的推理和概率分布所占的成分小了很多,虽然也有一些。

    另外一个典型的例子就是语音识别。
     
  4. 1. 以统计为基础的翻译,还和概率分布没有关系?

    2. 学的多了,变准确,是因为样本数量越多/

    3. 但学得越多,并不一定越准确,会过度学习。
     
  5. 分情况的。有唯一翻译标准答案的就直接翻译不需要考虑统计概率了(相当于100%的统计概率,很多需要人工确认判断,就象后来的深蓝下国际象棋),有多种翻译标准答案可行时会需要考虑统计概率来选择。但不是所有的都有答案(特别是人工筛选确认的),大量的语句还是需要靠机器自动学习,这时就更多的需要靠统计概率来自我学习了。不过通过不断的积累,会不断的充实第1、2种情况的资料数据库(已近似人工确认),也就翻译的越来越自然和准确。:D:p
     
  6. 我也挖下坟把。

    最简单,最基础的预测是随机森林。可以当做预测的基准。

    普通的提高可以用聚类,提高预测的稳定性。

    但是最有用的,必须是神经网络。
     
  7. 错, 就一个字
     
  8. 蚁群算法最后搞得怎么样?
     
  9. 大道至简。
     
  10. 如果将事情划分到极度微观,那么一些规律可能就会呈现出来,比如,电子单。那么这种规律只要存在,就是因存在那么果基本就确定,除非有一天有相反的证据证明这种因果被打破。使用计算机学习的好处是学习一遍也许算几个小时就够了,在某种因果被打破以后,后续的因果可能会继续出现,从而被计算机扫描出来。这方面你是专家,比我要在行的多。:D
     
  11. 到极度微观的时候,有时候呈现的情况和关系完全会发生变化,就好象完全不一样的世界,刚开始感觉很奇怪~
     
  12. 是啊,是完全不一样的东西。:)
     
  13. 这个时候手续费就出来干扰了。
     
  14. 某些市场的手续费很低。
     
  15. 假如 F(x)是你的决策模型, ut 是你的误差, 那F(X+Ut-1) 这一类的模型 都可以认为是自学习。模型的数量是无限种。。。。。。。。
     
  16. 没想到我这个很老的贴还不断被顶起。liubin的答案一针见血,厉害。
     
  17. 机器学习的方法用在直接交易上一般都不太好用,市场中的模式太多,还有太多噪声,处理起来相当困难