Light
Dark
Here is my reading materials:
- [x] aaaaa - [ ] bbbbbb
- [ ] aaaaa - [ ] mmmmmmm
Reinforcement Learning Q:解决的目标问题?基础要素有哪些?核心是什么? A:相比于有监督和无监督学习,强化学习目标是求的代理人在不同环境下的最优决策。通过机器学习得到不同环境下代理人应该做出的最优决策,因此学习目标是一个决策,或者action,一种行动策略,而不是单一的数字。 基础要素主要有state, value, environment, reward, policy, return等。核心是MDP马尔可夫决策过程和Bellman equation。即agent在不同的state下,做出不同的action和environment进行互动,得到不同的return并且进入下一个state。 Bellman equation用来描述state value,... Read More
因子评价指标: IC: 相关系数 一般大于0.03比较合适 分组IC: 将股票按因子分n组,按组的因子和组合收益率来算IC或RankIC 加权IC: 按照因子大小排序,然后给予指数衰减的权重,然后加权计算收益率。 用 IC 评价因子效果靠谱吗? - 知乎 (zhihu.com) IR(信息比率): IC均值/IC方差,描述因子的IC稳定性 一般大于0.5比较合适 RankIC: 排序后的相关系数,corr(‘spearman’) Calmar ratio: 收益/最大回撤,越大越好 Sharp ratio: 超额收益/波动率 分组多空收益率: 查看分组收益情况 正确率: 因子历史的ic方向与均值ic方向相同的占比 为什么用Lightgbm,优点在哪: 决... Read More
Long Tensor 专门用来储存整型,可以用在语料的embedding上面 View & Reshape & Contiguous View和Reshape本质上都是改变tensor的维度,对tensor进行维度变换,但是在其工作机制上略有不同。 View本质上是对原始tensor做不同的指针索引。 不会复制原始的tensor数据创建新的内存,类似pandas的切片 通过更改的访问内存的指针的stride实现切片。即创建新的指针。 当目标tensor的逻辑顺序 不等于 物理内存顺序时,view无法进行索引功能。【此时 tensor.is_contiguous == False】 ```python ... Read More
Chapter 1. Volatility & Options Options make people able to trading markets volatility Options Buyer = Long Volatility Options Seller = Short Volatility Straddle 用名义本金的百分比进行报价 更加直观 更容易判断:当underlying 波动超过 成本% 时,既能获得收益 想要实现盈亏平衡,现货价格需要变动多少百分比 实际波动率 \[\sigma^{2}_{实际} = {\alpha}/k \sum(r_i\] Read More
This is my study notes of HuaTai Financial Engineering Artificial Intelligence Research Reports. 12: Feature Selection Train-valid split in feature selection: at each timestamp, randomly selecting 90% stocks as training set, the rest 10% as validation set. Out-sample test: The predicting label is considered as an factor, and then perfor... Read More
This is my inaugural blog post following the completion of my personal website’s construction. After nearly four days of strenuous effort, I have successfully finished building my website, which is showcased here. Despite the abundance of tutorials available that guide users on utilizing GitHub Pages and Jekyll to construct a blog website, this ... Read More
Feb.17 MM algorithm: Majoritize and minimize Out Lier and l1 loss function: l1损失函数 = 对l2损失函数赋予权重,之后在进行对权重的迭代,为极端值的权重更小,从的减少极端值对参数估计的影响. l1损失函数的问题在于无法求导,因此最优化的时候没办法求。 此时找l1的损失函数的RSS对应的lossfunction值,然后找这个点上的l2曲线。 High Leverage Point: 考虑 估计的敏感性:即估计值对真实值变动的敏感性 $ y_hat / y_i $ 指的是 当真实值Y改变一点是,对整体的模型参数估计 以及 之后的Y_hat预测,都有巨大影响 敏感性 = H... Read More