[Flutter] Classmodel getter setter 패턴 알아보기 w....

Monet
2024.02.27 04:40 9 0

Contents

발번역 https://i-model-h0use.com 죄송합니다. 원문 읽는것을 추천드립니다 ㅋㅋㅋ​We reconsider the idea of trend-based predictability using methods that flexibly learn price patterns that are most predictive of future returns, rather than testing hypothesized or pre-specified patterns (e.g., momentum and reversal). Our raw predictor data are images---stock-level price charts---...근데, AI도 각잡고 공부해보니까 재밌네....재밌는거였네...... ​그냥 시중에 돈벌기 위해 마구잡이로 만들어진 AI강의 듣고, 저 AI 할 줄 알아요&quot하는 사람들 때문에 편견을 갖고 있었던거 같음 ㅋㅋㅋㅋ​진짜 요즘은 학교에서 트랜스포머 공부하고 있는데, 교수님이 웹에서 서칭해서 트랜스포머 알아보는거 조심하라고 했음.. 틀린 정보가 너무 많다구ㅠㅠ​그 만큼 오해하기 쉽고, 뭐 사실 논문이 이해를 위한 용도로 써진 글이니까...너무 모델 세부사항을 자세하게 말하다가, 정작 독자를 설득하지 못하면 논문이란 이름을 얻지 못하니까적정선으로 뺄 정보 빼고, 붙일 정보 붙이는 것도 논문 쓰는 실력이라고 하던데...(그나저나 트랜스포머부턴 진짜 어려움ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ 근데, CNN 같은 비젼처리도 결국 Transformer 가야하긴 함 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ)​​​암튼 이제 이 글 하고 마지막 하나 남았습니다!!!! 화이또!!!!쫌 깁니다!!!!!! 빨리 끝내버리고 싶어서!!!!ㅋㅋㅋㅋㅋ​​​아 그리고 참고로 논문의 구성을 심플하게Abstract, Introduction, Model, Performance, Conclusion, Reference 이렇게 구성되어있다 했을 때, 이 부분은 Performance에 해당하는 부분이고, 보나마나 그냥 우리 모델 성과 좋아요&quot자랑하는 부분이라, 빠르게 논문 읽을때는 그냥 스킵하는 부분이긴 하거든요그래서 중요도는 좀 떨어지는 부분이라고 생각하기 때문에 그냥 한 꺼번에 싸잡아서 올려버렸읍니다​헌데, 생각할 점을 많이 주긴 합니다...와 씨.. 이 정도로 분석한다고???&quot하는 경외심을 갖게 해줬던 부분이었습니다...4 CNN Prediction for US Stock Returns4.1 DataWe use daily stock data from CRSP for all firms listed on NYSE, AMEX, and NASDAQ. Our sample runs from 1993-2019 based on the fact that daily opening, high, and low prices first become available in June 1992.저희는 CRSP로부터 NYSE, AMEX, NASDAQ에 상장된 모든 기업의 주가를 사용했습니다. 전체 데이터는 1993년부터 2019년까지 있고, 1992년 6월부터 일별 시고저종이 사용가능했기 때문에 이렇게 했습니다.Our price trend analysis focuses on returns adjusted for corporate actions by using returns to construct a price series. In each image, we normalize the first day closing price to one, and construct each subsequent daily close from returns (RET_t) according to저희 가격 추세 분석은 기업활동으로 인한 가격 조정을 감안한 수정주가를 사용합니다. 그리고 각 이미지에서 첫날의 종가는 1로 normalize하고, 이후의 일별 종가는 수익률에 따라 일간 종가를 구성합니다.Each day's opening/high/low price levels are scaled in proportion to that day's closing price level.각 일별로 시가, 고가, 저가의 레벨은 해당일 종가 레벨에 비례하게 조정됩니다​We consider three input choices that include images of market data over the past 5, 20, or 60 days. Image labels take a value of one or zero for positive or non-positive returns over the 5, 20, or 60 days subsequent to the image. Thus, our main analysis amounts to nine separately estimated models. Because the CNN optimization is stochastic, for each model configuration we independently re-train the CNN five times and average their forecasts (following Gu et al., 2020).저희는 입력에 대해 과거5일자, 20일자, 60일자의 시장 데이터 이미지를 넣는것을 고려했습니다. 이미지당 라벨은 1 또는 0으로 사후 수익률(5일이면 5일, 20일이면 20일, 동일한 period)이 양의 수익률이면 1로, 그 외에는 0으로 붙였습니다. 그러므로, 저희의 주요한 분석은 모델이 얼마나 잘 나누어 내는지에 대해 9개의 모델을 분석하는 것입니다. 그리고 CNN의 최적화는 확률적이기 때문에 각 모델을 5회에 걸쳐 학습시켜 예측의 평균을 사용하기로 했습니다(Gu et al., 2020의 연구를 따랐습니다).​​Two important considerations when reading our empirical results are that we do not recursively retrain the model and that we randomly select training and validation samples. Specifically, we train and validate each model only once using data from 1993 to 2000, in which 70% of the sample are randomly selected for training and the remaining 30% for validation. The trained CNN model is then held fixed for the entire 2001 to 2019 test sample. This design is primarily due to capacity in computational resources. Adopting a rolling window and repeatedly retraining is likely to further improve the predictions.저희의 결과를 읽을때에 두가지 중요하게 생각할 것이 있는데, 하나는 모델을 재귀적으로 재학습하지 않는다는 점과, 두 번째는 학습데이터와 검증 데이터를 랜덤하게 뽑는다는 점입니다. 구체적으로, 학습과 검증을 할 때에 1993년부터 2000년까지의 데이터 중 70%가 학습 데이터로 사용되고 2001년부터 2019년까지의 모든 데이터가 test 데이터로 사용됩니다. 이러한 설계는 computational resources의 최대 역량 때문입니다. 롤링 윈도우를 굴려가며 반복적으로 재학습시키면 더 나은 예측을 낼 수도 있습니다.​Every period in which we construct new forecasts (weekly, monthly, or quarterly, depending on the model's forecast horizon), we sort stocks into decile portfolios based on out-of-sample CNN estimates for probability of a positive subsequent return. We also construct a long-short spread portfolio (”H-L) that is long decile 10 and short decile 1. The holding period for each portfolio coincides with the forecast horizon for each model (either 5, 20, or 60 days following the last date in an image). Throughout we use the notation “Ix/Ry&quotto denote that the model uses x-day images to predict subsequent y-day holding period returns.새로운 예측을 구성하는 각각의 기간에서(모델에 따라 주간, 월간, 분기간), 저희는 out-of-sample에 대한 CNN의 향후 수익률의 확률을 기준으로 주식을 정렬하여 10분위 포트폴리오를 구축합니다. 그리고 10분위 포트폴리오와 1분위 포트폴리오의 수익률 차이(H-L spread)를 살펴봅니다. 각 포트폴리오의 홀딩 기간은 모드 예측의 기간과 동일하게 했습니다. 저희의 표기 ”Ix/Ry”는 모델이 x-day의 이미지를 갖고 학습했다는 점, 그리고 y기간의 수익률을 예측한다는 점을 나타냅니다.​​4.2 Short-horizon Portfolio PerformanceImage-based return predictions, which constitute a technical price trend signal, are likely to be most potent over relatively short horizons. Thus, we begin our reportage focusing on one weekly return prediction.기술적 분석의 가격 추세 신로를 구성으로 하는 이미지 기반으로한 예측은비교적 짧은 기간 동안 가장 강력할 가능성이 높습니다. 그러므로, 주간 수익률 예측에 초점을 맞춘 것 부터 먼저 보여드리겠습니다.​Table 1 reports the predictive strength of the CNN model when it targets 5-day ahead returns. We couch this predictive strength in economic terms by reporting performance of portfolios sorted on CNN forecasts. The table focuses on annualized average returns and Sharpe ratios for 5-day holding period returns. The top panel reports equal-weight decile Decile 1, which corresponds to stocks having the lowest probability of a positive future return indeed realize large negative Sharpe ratios in excess of -1.0 for all image sizes. Sharpe ratios increase monotonically across predicted “up&quotprobability deciles. A long-only strategy based on stocks in decile 10 alone earns a Sharpe ratio https://i-model-h0use.com in excess of 1.8 across CNN models. Long-short H-L strategies earn annualized Sharpe ratios of 7.2, 6.8, and 4.9 for CNN models based on 5-day, 20-day, and 60-day images, respectively. To benchmark these results, we also report performance of one week holding period strategies based on MOM, STR, WSTR, and TREND, whose decile spreads earn annualized Sharpe ratios of 0.1, 1.8, 2.8, and 2.9, respectively.8 In value weight portfolios (bottom panel), CNN strategies earn Sharpe ratios ranging from 1.4 to 1.7 Sharpe ratio, double the 0.8 Sharpe ratio for the value weight WSTR strategy (which is the best value-weight performer of the benchmarks).9 CNN strategies outperform competing models in both the long and short legs of the H-L portfolio. Figure 5 plots the cumulative volatility adjusted returns to the weekly H-L strategies for the CNN model and competing price trend signals.표1에서는 향후 5일 뒤의 수익률을 예측하는 CNN 모델의 예측력을 보여줍니다. CNN의 예측을 정렬한 포트폴리오의 성과를 보여줌으로써 예측력을 경제학적으로 살펴본다고 할 수 있습니다. 이 표에서는 5일간의 연평균 수익률과 연율화 샤프 비율에 초점을 두었습니다. 첫 번째 패널에서는 동일비중 포트폴리오를 구성했을 때는 보여줍니다. 1분위 포트폴리오는 향후 양의 수익률이 날 가능성이 가장 낮은 10%의 종목수로 구성되어있습니다. 그리고 이후로는 실제로 -1.0을 넘어서는 음의 샤프 비율을 기록했습니다. 샤프비율은 양의 수익률이 높다고 예측할수록 단조적으로 증가합니다. 10분위에 포함된 종목을 long-only로 담는 전략이라 해도, 1.8을 초과한 샤브 비율을 달성할 수 있습니다. 그리고 10분위 롱, 1분위 숏을 치는 롱숏 전략의 경우에는 5-day, 20-day, 60-day 각각의 모델에 대해 7.2, 6.8, 4.9의 샤프 비율을 기록합니다. 이 결과의 벤치마크로 저희는 1주동안 보유하는 전략을 MOM, STR, WSTR, TREND를 기반으로 구성했습니다. 4개 각각에서 H-L spread는 각각 0.1, 1.8, 2.8, 2.9를 기록했습니다[8]. 아래의 패널인 시가총액 가중방식 포트폴리오에서는 CNN 전략이 1.4부터 1.7의 샤프 비율을 가졌으며 이 값은 벤치마크 중 가장 성과가 좋은 WSTR의 시총가중 방식에서의 0.8 샤프의 2배에 달했습니다[9]. CNN전략은 롱과 숏 모든 구갖에서 BM보다 나은 성과를 기록했습니다. 그림 5에서는 전략의 변동성 조정 누적 수익률을 나타냈습니다.​out-of-sample 예측 확률에 따라 정렬된 동일비중 포트폴리오와 시가총액 비중 포트폴리오의 성과입니다. 각 패널에서는 보유기간의 평균 수익률과 연율화 샤프 비율을 보여줍니다. ***, **, *은 유의수준 1%, 5% 10%에서 유의한지를 나타내는 것이며, 각 전략의 월간 회전율을 표시했습니다.​​​​Decile portfolio analysis provides detailed insight into CNN forecast accuracy. By studying realized returns at different quantiles of model predictions, we can understand accuracy across the full distribution of CNN forecasts, and how this compares to traditional trend-based benchmark strategies. For example, the left panel in Figure 6 shows the average weekly realized return at each decile of the CNN forecast distribution (based on 5-day images, denoted “I5/R5&quotin the figure), first averaged within deciles each period, then averaged over time (i.e., average returns of equal weight decile portfolios). To illustrate the precision of forecasts, the right panel shows the time series standard deviation of average decile returns. More positive CNN forecasts translate monotonically into higher returns on average. This is also true for MOM, STR, WSTR, and TREND, though with a somewhat flatter slope. An interesting difference between CNN forecasts and other benchmark price trend signals is in their variability. All CNN decile portfolios have annualized volatility below 20%. Volatilities of MOM, STR, WSTR, and TREND realizations reach around 30% in extreme deciles.10분위 포트폴리오 분석은 CNN 예측의 정확도에 대해 디테일한 인싸이트를 제공합니다. 서로 다른 분위수포트폴리오의 실현 수익률을 연구함으로써, CNN 예측의 전체 분포에서 정확도에 대한 이해를 할 수 있으며 또한, 기존의 추세 추종 방식의 BM으로 사용된 전략과 어떻게 비교되는지도 확인할 수 있습니다. 예를들어 그림 6의 왼편에는 각 분위수 포트폴리오의 주단위로 실현한 수익률의 평균값을 나타내었습니다. 예측의 정밀도를 설명하기 위해선 오른쪽 패널에 분위수 포트폴리오의 평균 수익률의 시계열 표준편차를 나타냈습니다. 다소 평평한 기울기를 갖긴 하지만, MOM, STR, WSTR, TREND 전략에 대해서도 우상향의 성과를 보이는건 사실입니다. CNN의 예측과의 차이점에서 흥미로운점은 변동성입니다. CNN에서의 모든 분위수 포트폴리오는 연변동성이 20% 미만합니다. 반면, MOM, STR, WSTR, TREND에 대핸 실현 변동성은 극단적으로 30%에 달하기도 합니다.​​Trend strategies, particularly those used for short horizons, tend to have high turnover. In Table 1 we report the fraction of the strategy that turns over on average scaled in monthly terms. Following Gu et al. (2020), we calculate monthly turnover as:짧은 보유기간을 갖는 TREND 전략은 높은 회전율을 갖는 경향이 있습니다. 표1에서는 월간으로 얼만큼 회전율을 갖는지를 나타내었습니다. 월간 회전율은 Gu et al. (2020)에서와 같은 방법으로 다음과 같이 계산합니다.​where M is the number of months in the holding period, T is the number of trading periods, $r_{i, t+1}$ is the return of stock i at time t+1, and $w_{i,t}$ is the portfolio weight of stock i at time t. Dividing by the number of months makes the turnover measure comparable across different holding periods that we investigate, for example scaling down quarterly strategy turnover by a factor of 1/3 or scaling up weekly strategy turnover by a factor of 4. A strategy that completely reconstitutes its holdings with no overlap from one holding period to the next will have maximum turnover of 200%/M while a buy-and-hold strategy that never rebalances achieves minimum turnover of 0%.여기서 M은 전체 개월 수 이고, T는 거래횟수입니다.$r_{i, t+1}$은 주식 i의 t+1에서의 수익률이고 $w_{i,t}$는 t시점에서의 주식 i에 대한 포트폴리오 비중입니다. 전체 개월수인 T로 나눠줌으로써 보유기간이 서로 다른 것 까지 회전율 비교가 가능하게 합니다. 예를들어, 분기 전략의 경우에는 1/3로 중이거나 주간 전략의 경우에는 4배 올리는 작업을 하는 것입니다. 겹치는 종목없이 포트폴리오를 싹 갈아치우는 리밸런싱(reconstitution)을 했다면 최대 회전율 200%/M을 가질 것이며, 어느 하나 바꿈 없이 stay하는 때에는 0%의 회전율이 계산됩니다.​While Table 1 demonstrates that image-based strategies are highly profitable in gross terms, it also shows that they require significant trading. Image-based strategies turn over roughly as frequently as the weekly return reversal strategy. Other strategies, such as monthly reversal and momentum, have mechanically lower turnover because their signals are moving averages of weekly returns. Below we investigate image-based strategies that trade less frequently.표1에서 이미지 기반 CNN전략은 수익률 측면은 굉장히 우수하지만, 거래가 매우 많이 일어나는 것을 보여줍니다. 이미지 기반 전략은 대략적으로 주간 반전 전략과 비슷한 빈도로 매매가 일어납니다. 월간 반전 전략이나 모멘텀 전략의 경우엔 signal 자체가 주간 수익률의 이동평균이기 때문에 매매는 작게 https://i-model-h0use.com 일어납니다. 아래에서는 매매 횟수가 높지 않은 이미지 기반 전략에 대해 살펴보겠습니다.​[8] Internet Appendix Table IA5 reports correlations between the long and short legs of CNN strategies versus those for other technical indicator strategies.부록 표 IA5에서 CNN전략과 다른 기술적 지표 전략간의 상관관계를 나타내었습니다.​​​4.3 Portfolio Performance Over Longer HorizonsMOM and STR strategies are useful turnover benchmarks from the asset pricing literature, with MOM typically viewed as a strategy that survives trading costs while STR does not. To make more direct comparisons with these strategies, we study the performance of image-based strategies that rebalance at the monthly frequency.MOM과 STR 전략은 Asset Pricing 관련 연구들에서 유용한 회전율 벤치마크로, 일반적으로 MOM은 거래비용을 감안하고서도 살아남는 전략이고, STR은 그렇지 않은 것으로 간주됩니다. 이러한 전략들과 더욱 직접적인 비교가 되도록, 이미지 기반 전략을 월별 주기로 리밸런싱하도록 만들어 비교해보고자 합니다.​The top panel of Table 2 reports portfolio performance for one month holding period equal-weight strategies based on each image size (5, 20, or 60 days). To align the model with the strategy's rebalance frequency, each CNN is trained to forecast returns over a 20-day horizon. The H-L Sharpe ratios for the I5/R20, I20/R20, and I60/R20 CNN models are 2.4, 2.2, and 1.3, respectively. One-month holding period CNN strategies have essentially the same turnover as STR (and WSTR), but with more than three times the Sharpe ratio of STR and nearly double the Sharpe ratio of WSTR. Momentum has substantially lower turnover than the monthly CNN strategy, but its Sharpe ratio is an order of magnitude smaller.표2의 위의 패널에서는 1달 보유하는 전략으로 동일가중 포트폴리오 전략에 대해 나타내었습니다. 보유기간과 예측기간을 일치시키기 위해 각각의 CNN은 20일 이후의 수익률을 예측하도록 학습되었습니다. I5/R20, I20/R20, I60/R20 각각에 대한 H-L spread는 2.4, 2.2, 1.3이 나왔습니다. 한달 보유하는 CNN전략은 기본적으로 STR, WSTR과 같은 회전율을 갖는데, STR의 샤프의 3배, WSTR 샤프의 2배에 달합니다. 모멘텀 전략은 월간 CNN 전략보다 회전율이 훨씬 낮지만, 샤프 비율은 더 작습니다.​​​The bottom panel of Table 2 reports quarterly strategies with CNN models trained on 60-day returns. In this case, the image-based strategies have monthly turnover of about 60%, roughly equal to the turnover of monthly-rebalanced MOM. In this case, the I5/R60 model produces a H-L Sharpe ratio of 1.3, roughly double the next best benchmark (quarterly-rebalanced WSTR with a Sharpe ratio of 0.7) and well in excess of quarterly-rebalanced MOM (Sharpe ratio of 0.1).10 Over longer horizons, the relative outperformance of CNN strategies is concentrated in the long leg of the H-L portfolio.아래쪽 패널에는 분기 CNN 전략의 성과를 나타냈습니다. 이 경우에서 모두 월간 회전율은 약 60% 정도였으며, 월간으로 모멘텀 전략의 회전율과 비슷한 수준이었습니다. 여기에서 I5/R60 모델의 경우에 H-L spread가 1.3에 달했고, 분기 리밸런싱에서 가장 좋은 전략인 WSTR의 약 2배 정도의 성과를 보였고, 0.1의 샤프 비율을 보인 분기 MOM을 훨씬 초과했습니다[10]. 긴 기간에 대해서 볼때 CNN전략의 상대적인 아웃퍼폼은 H-L 포트폴리오의 성과에서 볼 수 있습니다.​The weekly results above illustrate that image predictions are especially valuable at short horizons. The results for monthly and quarterly trading strategies demonstrate that the benefits of image-based predictions continue to be sizable and outperform competitors even when traded at levels of turnover that are much lower and on par with the turnover of MOM. In other words, image-based strategies appear to be profitable in net terms since they can be traded with the same turnover as momentum while earning higher gross Sharpe ratios.주간으로 했을 때의 결과는 이미지 예측이 특히나 짧은 기간에 대해 유효하다는 것을 보여줍니다. 월간이나 분기별 리밸런싱하는 전략의 결과는 이미지 기반의 예측이 비슷한 수준의 회전율로 내려놓고 보아도 다른 벤치마크들보다 여전히 더 좋고다는 것을 보여주었습니다. 즉, CNN전략이 모멘텀 전략과 비슷한 수준의 회전율로 거래하되 더 높은 샤프를 기록하기에 순이익 측면에서 더 수익성이 있다고 볼 수 있습니다.​We next investigate whether this longer-horizon performance is due solely to predictability of the first week of returns, or if images can help predict returns beyond the first week. Table 3 decomposes the performance of the monthly-rebalanced CNN strategy (and its competitors) into the return from days 1-5 after rebalance (top panel) and the return from days 6-20 (bottom panel), focusing on CNN models supervised with 20-day returns (Ix/R20). While indeed the bulk of the image-based strategy performance comes from the first week, a significant portion also realizes after the first week of trading. The annualized Sharpe ratios over days 6-20 are 0.4, 1.2, and 0.8 for 5-day, 20-day, and 60-day image models, respectively. CNN strategy mean returns over days 6-20 are all significant at the 10% level or better.이 다음으로는 이제 이러한 장기 성과가, 그저 첫 번째 주의 수익률을 예측에서 비롯된 것인지, 아니면 1주 이상의 기간도 잘 예측한 것인지에 대해서 살펴보았습니다. 표3에서는 월간 CNN 전략의 성과를 리밸런싱 이후 1-5일 이후까지의 수익률(위쪽 패널), 6-20일 이후의 수익률(아래 패널)로 분해해서 보았습니다. 그리고 모델은 20일 이후의 수익률을 예측하도록 학습시킨 CNN 모델들에 초점을 두었습니다. 실제로 이미지 기반 전략들에 수익의 대부분은 거래 첫 주 이후가 대부분을 차지했습니다. 하지만 유의한 부분으로 1주일 이후의 수익률도 존재했습니다. 5-day, 20-day, 60-day 이미지로 학습한 모델 각각 6-20일 동안의 연율화 샤프 비율은 0.4, 1.2, 0.8이었습니다. CNN 전략의 6-20 기간 동안의 평균수익률은 모두 10% 수준 이상에서 유의미했습니다.​​4.4 The Effect of Stock Size and Trading CostsTable 1 shows that Sharpe ratios of image-based strategies more than double when using equal-weight deciles versus value weights. However, as Jensen et al. (2022) point out, pure value weighting does not necessarily give a more economically representative description of empirical return patterns. Nor are strict value weights necessary for constructing portfolios with manageable trading costs (even Fama and French, 1993, value-weight factors give half of all weight to small stocks).표1에서 이미지 기반의 전략의 샤프 비율을 봤을 때 동일비중 포트폴리오가 시가총액 가중 포트폴리오의 2배 이상이 나왔었습니다. 그러나 Jensen et al. (2022)의 연구에서도 지적했듯이 순수한 시총가중 방식이 경제학적으로 수익률 패턴을 더 잘 설명하는건 아닙니다. 또한, 거래비용을 관리하기 위해서 꼭 시총가중 방식으로 포트폴리오를 짜야하는것도 아닙니다(Fama-French 1993의 연구에서도 시총 가중 팩터를 소형주 전체에다가 전체 비중의 절반을 부여하기도 했습니다.)​In Table 4, we analyze the effect of stock size by restricting the strategy to only the largest 500 stocks https://i-model-h0use.com by market capitalization each month. Even with this severe sample restriction to the most liquid stocks, we continue to find significantly positive Sharpe ratios in excess of 1.0 in both equal and value weight strategies. Furthermore, in Internet Appendix Table IA4, we show that the trading profits in Table 1 survive standard trading cost adjustments (10 basis points for stocks exceeding the 80th size percentile of the NYSE, and 20 basis points otherwise, see Frazzini et al., 2018, Ke et al., 2021). We find net-of-cost Sharpe ratios as high as 4.0, 1.5, and 0.9 for weekly, monthly, and quarterly equal-weight strategies, respectively.표 4에서 저희는 주식 size에 대한 효과를 분석했습니다. 그래서 매월 시가총액 기준 상위 500개 종목으로 유니버스를 제한하여 전략을 구성해보았습니다. 이렇게 유동성이 가장 높은 주식으로 엄격하게 제한했음에도 불구하고, 동일비중포트폴리오, 시총비중 포트폴리오 모두에서 1을 초과하는 유의미한 샤프비율이 관찰되었습니다. 게다가 부록 표 IA4에서는 표준적인 거래 비용을 적용해 Table1에서 살아남는 전략이 있는지 살펴봤습니다(**NYSE에서 주식 사이즈가 80분위수를 초과하는 주식에 대해선 10bp, 이외에는 모두 20bp. Frazzini et al.(2018), Ke et al.(2021)**을 확인해보시기 바랍니다). 주간, 월간, 분기별 동일비중 포트폴리오에서 거래비용을 제하고 나서의 4.0, 1.5, 0.9의 높은 샤프비율을 확인할 수 있었습니다.​​[10] Internet Appendix Table IA3 reports monthly and quarterly results for value-weight decile portfolios.​​4.5 RobustnessInternet Appendix IA.1 reports a number of robustness analyses that support the main empirical findings presented above. We show that image-based strategy returns are not explained by exposure to the market or to well known price trend strategies. We perform sensitivity analysis of the CNN prediction model to alternative choices in image representation (e.g., excluding volume data or moving average price line or using minimal white pixels to represent the data), model architecture (e.g., varying the number of filters in each layer or varying the number of layers), and estimation (e.g., different dropout or batch normalization schemes). Finally, we compare CNN models to alternative computer vision models including “HOG&quotand “HAAR&quot(whose model descriptions are also included in the Internet Appendix).부록 IA1에서는 위 실증 분석의 결과를 뒷밧침하기 위한 많은 강건성 테스트를 진행했습니다. 저희는 이미지 기만의 전략이 수익률이 시장에 대한 익스포져로 설명되지 않는 수익률이라는 점과, 잘 알려진 가격 추세추종 전략의 수익률로 설명되지 않는다는 것을 보입니다. 저희는 CNN 예측 모델에 대한 민감도 분석을 진했습니다. 가령 이미지 표현을 바꿔보거나(ex. 거래량 또는 이동평균선을 제외시켜보거나, 하얀 픽셀값을 나타내는 것을 더 작은 값으로 해보든지), 모델 아키텍쳐를 바꿔보거나(레이어마다 필터 갯수를 바꿔보거나, 레이어의 갯수를 바꿔보거나), 또 dropout이나 batch normalization 스킴을 바꿔보며 민감도 분석을 진행했습니다. 마지막으로 HOG, HAAR 등의 또 다른 컴퓨터 비젼 모델과 CNN 모델을 비교해보기도 했습니다.​​​​​AI.1 Robustness AnalysisTable IA1 estimates the extent to which image-based strategy returns are explained by exposure to the market or to well known price trend strategies. For conciseness, we collapse the CNN portfolios from nine down to three by taking the equal weighted average of all models with the same supervision window. Of the five control factors, the market portfolio is most significantly associated with image-based strategies. After accounting for their negative betas, image-based alphas rise slightly above the raw average return. The primary conclusion from the table, however, is that image strategies bear little in common with well known momentum or reversal phenomena, and that these well known strategies are not responsible for the success of the CNN strategy.표 IA1에서는 시장에 대한 익스포져와 잘 알려진 추세추종 전략의 수익률로 이미지 기반의 수익률의 설명하는데의 추정치들을 나타내었습니다. 간결성을 위해 동일한 학습 윈도우를 사용한 것끼리 비교했으며, CNN 포트폴리오를 9개에서 3개로 축소하여 동일 비중 평균으로 계산했습니다. 5개의 통제 요인 중 시장 포트폴리오는 이미지 기반 전략과 가장 관련이 없는 것으로 나타났습니다. 음의 베타를 고려한 후에는 이미지 기반 전략의 알파를 원래의 평균 수익률보다 살짝 더 증가하긴 했습니다. 근데 표에서 얻은 주요한 결론은 바로 이미지 기반 전략이 많이 알려진 모멘텀 전략이나 가격 반전 현상과는 전혀 관련이 없다는 점이었으며, CNN 전략의 성공에 저러한 전략은 전혀 관려하지 않았다는 것이었습니다.In the main text, our portfolio analyses study holding periods equal to the forecast horizon in each model (e.g., rebalancing positions every five days for I5/R5 but every 60 days for I5/R60). But there is no guarantee that the best quarterly trading portfolio, for example, comes from a model that was trained with 60-day returns. Table IA2 studies the possibility that CNN models trained with one supervising return horizon are helpful for predicting different return horizons out-of-sample. To this end, we investigate portfolio performance for a range of holding periods (5, 20, or 60 days) regardless of the horizon of the supervising return.저희 본문에서 포트폴리오 분석은 예측의 기간과 보유하는 기간의 크기를 모두 갖게 했었습니다. 그러나 예를들어 60일 수익률로 학습시킨 모델이 60일 보유 기간 전략 중 최고가 나올것이라 단정할 수 없습니다. 그래서 표 IA2에서는 어떤 기간의 수익률로 학습시킨 모델로 보유기간을 다양하게 하는 전략으로 하는것을 살펴보았습니다. 결과적으로 학습시키는 수익률의 기간에 관계없이 보유기간을 여러가지로 했을때의 포트폴리오 성과를 살펴볼 수 있었습니다.​Indeed, we see that there is no single image length, and no single supervision window, that is dominant in terms of portfolio performance across investment horizons. For example, it is often the case that quarterly trading strategies benefit when the prediction model is supervised with shorter horizon returns. Furthermore, we find that image-based forecasts from different models pick up on different signals. For example, the correlation between the I5/R5 and I20/R20 models is 32%. Pairwise correlations between all nine model configurations are below 50% on average and as low as 7% (and as high as 74%) between some models. This suggests that investment strategies can benefit from combining forecasts from multiple CNN models.실제로 투자 기간에 따른 포트폴리오 성과 측면에서 우위를 점하는 이미지의 기간과, 학습시키는 기간이 있는건 아니었습니다. 예를들어서, 분기별 전략에서 짧은 기간의 수익률로 모델을 분기별 리밸런싱 전략으로 할 때에 가장 좋았습니다. 또한, 서로 다른 모델은 서로 다른 신호를 포착하는 것으로 나타났습니다. 예를들어 **I5/R5과 I20/R20은 모델간의 상관관계는 32%**였습니다. **9개 모델 구성간의 상관관계는 최저 7%에서부터 최고 74%**까지 걸쳐 있었습니다. 이는 여러 CNN 모델의 예측을 결합하면, 투자 전략에 도움이 될 수 있음을 보여주는 것입니다.​In Table IA3 we conduct the same analysis as Table 2 but using value weights rather than equal weights. For https://i-model-h0use.com one-month holding periods, CNN strategies deliver out-of-sample H-L Sharpe ratios of 0.5, 0.5, and 0.2, versus 0.4, 0.0, and 0.3 for MOM, STR, and WSTR, respectively. This demonstrates the well known robustness of MOM for value-weight strategies, and the well known lack of robustness of STR, which is wiped out by the use of value weights and is consistent with the fact that STR's performance is driven by micro-cap stocks. CNN is thus an important contrast with STR because it continues to excel amid value weighting, illustrating that image data is predictive across the size spectrum. Finally, at the quarterly investment horizon, the only strategy delivering significant H-L returns is the CNN using 5-day images, which achieves a Sharpe ratio of 0.5, followed by insignificant 0.3 and 0.2 Sharpe ratios using 20- and 60-day images. The next best quarterly strategy is WSTR with an insignificant Sharpe ratio of 0.2, while the Sharpe ratio of MOM drops to 0.1.표 IA3에서는 표2에서의 분석을 똑같이 분석해보되, 동일 비중이 아닌 시가총액 비중으로 진행했습니다. 1개월 보유하는 CNN 전략은 5,20,60-day 이미지로 학습했을 때, out-of-sample에서 각각 H-L spread를 0.5, 0.5, 0.2를 기록한 반면, MOM, STR, WSTR의 경우에는 0.4, 0.0, 0.3을 기록했습니다. 이는 시가총액 가중 전략에서의 잘 알려진 MOM의 강건함을 보여주기도 하며, STR의 부족함을 보여주기도 합니다. 즉, STR의 성과는 대개 초소형주로부터 비롯되는 것이기에 시가총액 가중 방식으로 인해 효과가 다 사라진다는 것을 볼 수도 있습니다. 따라서 CNN은 시가총액 가중을 적용해도 여전히 훌륭한 성과를 내기 때문에 STR과 큰 대조를 이루며, 이미지 데이터가 주식의 사이즈에 관계없이 모두 예측력이 있다는 것을 보여줍니다. 마지막으로 분기의 투자 기간을 가진 전략에 대해선 5-day 이미지를 갖고 훈련한 CNN의 H-L 포트폴리오의 수익률만이 유의미하다고 나왔습니다(샤프는 각각 0.5, 0.3, 0.2). 그 다음으로 가장 좋았던 전통적 기술적 분석 전략은 WSTR이었고, 샤프는 유의한 수준으로 0.2였습니다. 그 뒤로 부터는 MOM 0.1로 뚝 떨어집니다.​​​IA.1.1 Sensitivity to Data Choices, Model Structure, and Estimation MethodsIn this section we conduct a number of sensitivity analyses. We report annualized Sharpe ratios for long-short decile strategies (using equal and value weights). We focus on the 20-day return horizon and use images of 5, 20, and 60 days. In all sensitivity analyses, the baseline version of each variation is listed first and shown in bold.이번 섹션에서는 여러가지 민감도 분석을 수행합니다. 전략의 동일비중과 시가총액가중 방식의 포트폴리오를 구축하며 10분위 롱-숏 수익률의 연율화 샤프로써 분석을 진행합니다. 저희는 20일 동안의 보유기간을 갖는 것에 집중을 했고, 학습할 때에는 5, 20, 60일 데이터 각각을 사용해봤습니다. 민감도 분석 모두에서의 기준이 되는 버젼은 가장 먼저 나열하여 볼드체로 쓰도록 하겠습니다.First, in Table IA10, we consider how model performance is affected by excluding volume bars (VB) or moving average price curve (MA) from images. In order to assess the predictive contribution of these elements, we report prediction sensitivity analyses using OHLC charts with and without moving average and volume elements according to the four combinations in Figure IA2. Table IA9 summarizes pixel dimensions for each of the design choices we consider.첫 번째로 표 IA10에서는 이미지에 거래량 바차트와 이동평균선을 제외시켰을 때 성과가 어떻게 변하는지를 살펴봅니다. 이러한 요소에 있어서 예측 기여도를 평가하기 위해 그림 IA2의 네 가지 조합에 따라 이동평균 및 거래량 이 있고 없고의 예측 민감도를 나타냅니다. 표 IA9에서는 각각의 모델 설계에 있어서의 픽셀의 차원을 정리해 놓았습니다.​​We report classification accuracy and annualized Sharpe ratios for long-short decile strategies (using equal and value weights). We find that for small images (5 days), there is some gain (especially in value weight strategies) to omitting volume and moving average price. For 20-day and 60-day images, however, excluding volume and moving average information is detrimental to model performance. A possible reason for that is moving average lines create more noise than information in 5-day images, but this is not an issue for 20 and 60-day images.동일비중과 시가총액 가중 방식 모두에서의 모델의 분류 정확도와 롱숏 포트폴리오의 연율화 샤프 비율을 살펴봤습니다. 작은 이미지(5일)의 경우에는 거래량과 이동평균선을 빼고 하는데에 조금 더 이점이 있었습니다(특히 시가총액 가중 방식에서). 그러나 20일과 60일 이미지를 사용할 때에는 거래량과 이동평균선 정보를 빼고하면 모델 성과가 안 좋아졌습니다. 이에 대한 가능성있는 이유로는 5일 짜리 이미지에서는 이동평균성이 정보보단 노이즈를 더 양상하지만, 20일이나 60일 이미지에서는 그런 이슈가 없어서이지 않을까 합니다.In some applications, removing observations that are close to the classification boundary (i.e., returns near zero in our case) helps to de-noise the training data and improve out-of-sample performance. We consider filtering the training data to remove observations that have small returns relative to their volatility. In particular, we look at estimation variants that remove the smallest 10%, 20%, 30%, 40%, or 50% of volatility-scaled returns from the training sample. We find that this de-noising degrades model performance in general, though for 5-day images there are small benefits to using a mild filter.일부에서는 분류 경계(classification boundary)에 아까운 (수익률이 거의 0인) 케이스를 관측치에서 지워버리면, 훈련할때의 노이즈를 제거하는데 도움이 되어 out-of-sample 성과를 개선시키는 것으로 나타났습니다. 저희는 학습 데이터에서 변동성대비 수익률이 상대적으로 낮은 데이터에 대해선 제거시키는 것을 고려해봤습니다. 구체적으로, 학습 샘플에서의 변동성 척도 수익률이 작은 순서대로 10%, 20%, 30%, 40%, 50%를 제거해서 진행했습니다. 결과는 전반적으로 디노이징을 작업하면 모델 성과가 안 좋아 졌지만, 5일 이미지를 사용할 때엔 약간의 이점이 있는 것으로 확인했습니다.Likewise, in the spirit of de-noising in training, we explore whether there are benefits to excluding the smallest stocks from the training sample, as these tend to be less liquid, more volatile, and heavier tailed. Across the board we find no benefits in model performance to limiting stocks to the top 4,000 or top 2,000 stocks during training.이와 비슷하게, 유동성이 떨어지고, 변동성이 크고, 두꺼운 꼬리 분포를 갖는 소형주를 제거하는 식으로 노이즈를 제거했을때 모델 성과가 어떻게 영향받는지를 봤습니다. 전반적으로 상위 4000개이든 2000개이든 주식수를 제한하는 것이 모델 성과에는 큰 이점이 없는 것으로 나타났습니다.In Table IA11, we explore performance sensitivity to various dimensions of model structure and estimation choices. We report sensitivity in terms of annualized Sharpe ratios for long-short decile strategies.표 IA11에서는 모델의 차원, 추정의 방법 등에 대한 성과 민감도를 살펴봅니다. 저희는 롱-숏 분위수 포트폴리오의 연율화 샤프 비율 기준으로 살펴봅니다.​​First, we report the effect of varying the number of filters in https://i-model-h0use.com the first layer of the CNN from 64 down to 32 or up to 128. We see that model performance is fairly insensitive to the number of filters. Next, we increase/decrease the number of convolution layers from 3 to 2 or 4. Decreasing the number of layers meaningfully degrades the model performance. The model is essentially unchanged if we lower the dropout probability, though raising it to 0.75 produces a noticeable loss in performance. Performance is insensitive to omitting the batch normalization step or Xavier initialization, but we see a loss in trading strategy performance when we transition from leaky ReLU to ReLU. Changing the max-pooling size from (2x1) to (2x2) reduces the performance significantly. Either smaller filters or larger filters hurt performance. Finally, we notice some loss in performance when we alter dilation, though the results in this dimension are mixed.첫 번째로는 CNN의 첫 번째 레이어의 필터수를 64개에서 32개로 내려보기도, 128개로 올려보기도 했을때의 효과를 보았습니다. 결과적으로 필터의 갯수에 대해 모델 성능은 상당히 민감하지 않은 것을 볼 수 있었습니다. 두 번째로 컨볼루젼 레이어의 갯수를 3개에서 2개로 감소시켜보고, 4개로 증가시켜보기도 했습니다. 레이어의 갯수를 줄이는 것은 모델의 성능을 의미있게 감소시켰습니다. 드롭아웃의 확률은 감소시킨다고 모델 성능이 변화하진 않았는데, 0.75로 올렸을땐 눈에띄에 성능 저하가 있었습니다. 배치 노말리제이션이나, Xavier 초깃값의 과정은 제껴놓는다해도 모델 성능이 변하진 않았습니다만, 활성화함수를 leaky ReLU에서 ReLU로 바꿨을땐 전략의 성과가 감소하는것을 볼 수 있었습니다. , max-pooling 계층에서 2x1에서 2x2로 변경하면 성능이 크게 떨어졌습니다. 필터의 크기는 더 작거나 더크거나 했을때 모델성능을 저해하는 것을 볼 수 있었고, 마지막으로 dilation의 변경에 대해선 어느정도의 성능저하가 발견되었지만, 차원에 따라 엇갈리는 결론을 내긴 합니다..(저하시킬수도 아닐수도)Overall, the broad conclusion of this analysis is that our main results are robust to alternative modeling choices.전반적으로 이 분석의 주요 결과는 모델링 선택에 대해 로버스트 하다는 결론을 내릴 수 있을것 같습니다.Next, we study the robustness of our results to additional image representations of the data. The first, which we call the “pixel&quotrepresentation, presents the data with less profligate use of the color white. In particular, it replaces price bars with just one pixel each for high, low, open, and close price. It also replaces daily volume bars with a single pixel. (the top of the volume bar). This is shown in Panel (b) of Figure IA3.다음으로는, 데이터의 추가적인 이미지 표현에 대해 강건성을 살펴보았습니다. 먼저 픽셀 표현이라 부르는, 흰색을 덜 사용하는 데이터를 사용할 때를 살펴보았습니다. 구체적으로 가격 바차트를 그냥 하나의 픽셀로 나타내되 각각이 시고저종을 나타내도록 했습니다. 또한 거래량 막대도 단일 픽셀로 나타내어 보았습니다. 이는 그림 IA3의 패널 (b)에서 볼 수 있습니다.​The second representation we call “centered pixel.&quotIt normalizes all prices by the closing price, then plots pixels for high-close, low-close, open-close, close-previous close, moving average-close. This is shown in Panel (c) of Figure IA3.두 번째는 “centered pixel” 표현으로도 보았습니다. 이는 모든 가격을 종가로 정규화한 다음에 픽셀에는 종가대비 시고저종 및 이동평균선으로 나타냅니다. 이에 대해선 패널 (c)에서 볼 수 있습니다.Table IA12 reports short-horizon (weekly) portfolio performance for CNNs trained on the pixel and centered pixel images with 5-day return supervision. Table IA13 reports longer-horizon (monthly and quarterly) equal-weight portfolio performance for CNNs trained on the pixel and centered pixel images with 20-day and 60-day return supervision, while Table IA14 reports the corresponding value-weight portfolios. The performance are a bit worse than the benchmark image specification but remain significantly profitable, with equal weighted portfolios achieving 6.4 and 5.2 Sharpe ratios, respectively, based on Pixel and Centered Pixel images. While these alternative image representations have the same information content as the benchmark image, they are less intuitive and more sparse. Not surprisingly, the choice of image specifications still matters, although the differences are not substantial.표 IA12에서 픽셀과, 중심픽셀 표현으로 5-day로 학습시킨 CNN을 기반으로 짧은 기간(주간)의 포트폴리오 성과를 나타냈습니다.표 IA13에서는 더 긴 기간으로 낸 결과물에 대해 나타내었으며, 표 IA14에는 각각에 대해 시가총액 가중 방식 포트폴리오로 결과를 나타내었습니다. 벤치마크로하는 원래 전략의 성과보다 살짝 떨어지긴 하지만, 동일비중 포트폴리오 헀을 때 각각 6.4, 5.2의 샤프 비율을 달성했습니다. 이미지 표현을 바꿔서 진행해봤을 때에도 원래 것과 비슷한 정보를 담고 있는 것으로 보입니다. 하지만, 직관성은 떨어지고 더 듬성듬성 있습니다.. 당연히 이미지를 어떻게 표현할 것이냐에 대해선 중요한 문제일 것이지만, 중요한 차이를 만들지는 않았습니다.​Table IA15 report cross-sectional correlations for different image specifications using three different models for I20/R20. Our baseline representation is based on the bar image with 3 layers for I20/R20. Consistent with aforementioned experiments, altering the design of input images leads to lower correlations than altering the number of layers in CNN models. Finally, Table IA16 reports additional model specifications when images use pixel or centered pixel representations. Again, the performance does not appear sensitive to modeling choices.표 IA15에서는 서로 다른 이미지 스펙을 사용한다 했을 때 상관관계를 살펴본 결과를 담고 있습니다. 기준으로 사용한 모델은 I20/R20이고, 벤치마크가 되는 것은 3개 레이어를 사용한 bar 이미지 표현입니다. 결과는 앞서 시행되었던 실험과 일맥상동합니다. 입력 이미지를 바꾸는 것이 CNN 모델의 레이어 수를 변경하는 것보다 상관관계가 낮아닙니다. 마지막으로 표 IA16에서는 픽셀과, 중심 픽셀 표현을 사용했을 때의 모델 사양을 변경하면 어떻게 되는지를 나타냈습니다. 여기서도 똑같이 모델링 선택에 대해서 성능은 민감하지 않은 것으로 나왔습니다.​​​IA.1.2 Comparison With Other Computer Vision ModelsIn this subsection, we compare CNN to two classical visual recognition methods, namely, Adaboost with HAAR-like Features by Viola and Jones (2001) and Histogram of Oriented Gradients (HOG) by Dalal and Triggs (2005), both of which are widely used precursors to CNN. A distinction between CNN and these methods is that CNN need little or no data pre-processing and automatically extract features from the data, while features in the precursor algorithms are hand-engineered. Indeed, neither method works directly with raw pixel images at allinstead they rely on pre-selected features extracted from the pixels, in contrast to CNN.이번에는 고전적인 시각인식 방법인 Viola and Jones (2001)에서의 Adaboost with HAAR-like Features와 Dalal and Triggs (2005) 연구에서의 Histogram of Oriented Gradients (HOG)의 방법론과 비교해봅니다. 둘 다 보두 CNN이전에 널리 사용되었던 친구들입니다. CNN과의 차이점으로는 CNN은 데이터 전처리가 거의 혹은 전혀 필요없으며, 특징을 자동으로 추출하는 반면, 이전의 알고리즘들은 feature를 인간이 추출해줘야 합니다. 즉, 두 방법 픽셀에서 모두 사전에 https://i-model-h0use.com 선택되어 추출된 특징에 의존합니다.​IA.1.2.1 Adaboost with HAAR-like FeaturesHAAR-like features are first introduced in Papageorgiou et al. (1998), which later gained popularity due to its widely adopted applications in real-time face detection proposed by Viola and Jones (2001). The HAAR-like features are reminiscent of HAAR basis functions in rectangle shapes, which manage to capture the differences in intensity within a region of image. For example, when used for face detection, it is shown in Viola and Jones (2001) that certain HAAR-like features learn that the region of eyes is darker than the region of the nose and cheeks.HAAR-like features는 Papageorgiou et al. (1998)에서 최초로 소개되었고, 실시간 얼굴인식에서 널리 적용되며 인기를 얻었습니다. HAAR-like features는 이미지의 한 영역에서 강도의 차이를 감지해내는 직사각형 모양의 HAAR basis functions을 연상시킵니다. 예를들어, 얼굴 인식에 사용될 때, 특정 HAAR-like features가 눈 주변의 영역에서 코나 뺨 영역보다 어둡게 학습한다는 것을 Viola and Jones (2001)에서 보였습니다.There are five types of rectangles, as illustrated in Figure IA4, colored in red and green, respectively. A feature is constructed by taking the difference between the total sums of the pixels from two colored rectangular regions of a detection window. Because the detection window slides over the entire image and its size can vary arbitrarily within the image, the total number of features constructed is massive. Specifically, there are over 100K features for a 5-day image of size 32x15, 7 million for a 20-day image of size 64x60, and 140 million for a 60-day image of size 96x180. Most of these features are either useless or redundant.직사각형에는 그림 IA4에 나타내어져 있듯 5가지 종류가 있고, 빨강색과 초록색으로 나타내어 입니다. feature는 이렇게 색깔 칠해진 영역에서의 총 합의 차이를 취함으로서 구성됩니다. detection하는 window는 이미지 전체 영역을 훑고, 이미지 내에서 사이즈를 임의로 다양하게 할 수 있기 때문에 구성되는 feature의 갯수를 엄청 많습니다. 우리 연구에서는 32 x 15 크기의 5-day 이미지에는 100K가 넘은 feature, 64x60dml 20-day이미지에서는 7,000K개의 feature가 96x180의 60-day 이미지에서는 140,000K개의 feature가 있습니다. 이러한 feature 중 대부분은 의미 없거나 중복되는 것들입니다..​To combine these features, Viola and Jones (2001) adopt a boosting algorithm, Adaboost first introduced by Freund and Schapire (1995), that incorporates an increasing number of weak learners, which in this case are individual features themselves. The final output of the algorithm is a classification probability by (weighted) voting from selected weak learners.이러한 feature 들을 결합하기 위해 Viola and Jones (2001)의 연구에서는 부스팅 알고리즘을 채택했으며, Freund and Schapire (1995)에서 처음 도입되었던 것이 Adaboost 였습니다. 이는 점점 더 많은 weak learners들을 통하는 것으로 개별 특징을 그 자체를 통합합니다. 알고리즘의 최종 출력은 선택된 weak learners로부터의 결과를 (weigted) 투표하여 분류 확률을 뱉습니다.​IA.1.2.2 Histogram of Oriented Gradients (HOG)Similarly, the HOG method creates features from the input image by extracting the distribution (histograms) of directions of gradients (oriented gradients) at each pixel. As coordinates of pixels in an image are discreet, the horizontal gradient of that pixel is simply defined as the color difference between the adjacent pixels on the left and right (denoted as gx) and the vertical gradient as the color difference between the adjacent pixels on the top and bottom of it (denoted as gy)[23]. Only four neighboring pixels are needed to calculate the gradient for each centered pixel whose value is not used. The magnitude of the gradient vector is given by $|g| =\sqrt{g_x^2 + g_y^2}$ and the direction by $\Theta_g Ϛrctan(g_y/g_x)$. Intuitively, $|g_x|$ detects vertical edges, where there is substantial difference between the left and right pixels, and similarly $|g_y|$ for horizontal edges. As a result, |g| detects regions of abrupt intensity changes, e.g., edges and corners, and $\Theta_g$ detects the orientations.HOG 방법도 비슷한 방식으로 입력된 이미지에서 각 픽셀에서의 그라디언트의 방향 (히스토그램)분포를 추출하여 feature를 생성합니다. 이미지에서 픽셀의 좌표는 discrete하기 때문에, 수평 방향 그래디언트는 왼쪽오른쪽 인접한 픽셀의 색깔 차이로 정의하고(gx), 수직방향 그래디언트는 위아래 인접 픽셀의 색깔 차이로 정의합니다(gy). 좌우위아래 인접한 4개의 픽셀에 대해서만 그래디언트 연상이 필요하고, 중심의 픽셀에는 연산은 행해지지 않습니다. 그라디언트 벡터의 크기는 다음와 같이 정의 됩니다. $|g| =\sqrt{g_x^2 + g_y^2}$. 그리고 방향은 $\Theta_g Ϛrctan(g_y/g_x)$ 으로 정의됩니다. 직관적으로 생각해보면, $|g_x|$는 왼쪽과 오른쪽 픽셀 사이 상당한 차이가 있는 수직 방향 모서리를 감지하고, 비슷하게 $|g_y|$는 수평방향 모서리를 찾아냅니다. 결과적으로 |g|는 급격한 강도의 차이가 있는 영역을 감지하는 것입니다.(방향은 $\Theta_g$가 감지)​The resulting gradients are grouped into bins (like a histogram) and their summary statistics based on these bins are used as features. We follow the canonical approach by dividing the image into many cells of 88 pixels and creating a feature for each cell. An 88 cell has 64 values of gradient magnitude and 64 values of gradient direction. Using the histogram of gradients, these 128 values are summarized by a 9-dimensional vector.24 The HOG algorithm therefore effectively reduces the dimension of input variables and potentially improves the model's out of sample performance. In total, there are 192 features for 5-day images, 2,464 features for 20-day images, and 12,320 features for 60-day images. If the direction is between two bins (e.g. 15 between 0 and 20), then the votes are divided proportionally to each bins (1/4 to 0 and 3/4 to 20). Finally, the histogram represented by the vector of size 9 is generated for each cell of pixel size 8x8. See Figure IA5 for a detailed example. In the original paper, histograms are also normalized within each block consisting of 2x2 cells. We follow the same setting in our feature generating process. The total number of features is not excessive, we thus directly use these features in a logistic regression to classify the images.그래디언트 결과물은 히스토그램처럼 구간으로 그룹화되고, 구간을 기반으로 요약 통계가 생성되어 feature로써 사용됩니다. 저희는 이미지를 88개 픽셀로 나누고 feature를 생성하는 표준적인 방법을 따랐습니다. 88개의 셀에는 64개의 그래디언트 크기와, 그래디언트 방향을 답ㅁ고 있ㅅ브니다. 그래디언트의 히스토그램을 사용하여 128개의 값을 9차원 벡터로 요약합니다[24]. 따라서, HOG 알고리즘은입력 변수의 차원을 효과적으로 줄이고, 잠재적으로 out-of-sample 성능을 개선시키는 것입니다. 5-day 이미지에는 192개, 20-day 이미지는 2,464개, 6-day 이미지에는 12,320개의 feature가 존재했습니다. 두 구간 사이에서의 방향이 그 사이의 값을 가지면, 그 사이의 숫자에 얼만큼 떨어있는지 만큼으로 https://i-model-h0use.com 비례하게 votes(투표)를 비례하게 합니다. 최종적으로 8x8 픽셀 사이즈의 각 셀로, 크기 9짜리 벡터 표현으로 히스토그램이 생성됩니다. 그림 IA5에 자세한 예시를 나타내었습니다. 원래 연구 논문에서는 2x2 셀로 구성된 각 블록 내에 대해서도 히스토그램 또한 normalize가 진행되었습니다. feature 생성과 관련한 절차는 똑같은 셋팅을 했습니다. 총 특징의 수가 과하지 않기 때문에 저희는 로지스틱 회귀를 사용하여 이미지 분류를 직접적으로 해보기로 했습니다.[23] The HOG algorithm also supports colored images (e.g. RGB channels) but we focus our discussion on grey-scale images here.원래는 칼라 사진도 됨. 근데 여기선 gray-scale의 경우로 논의한것임[24] The histogram of all pixels in each cell is based on 9 bins corresponding to angles ranging from 0 to 180. The angles range from 0 to 180 instead of 360, the gradients are called unsigned&quotgradients (a gradient and the other 180 degrees opposite to it are considered the same). We follow this tradition and use unsigned gradients. For each pixel's gradient g, $\Theta_g$ determines which bins get a share of the value |g|. Often $\Theta_g$ falls in between two bins, sharing the votes. The resulting feature is a size 9 vector.One thing to note here is that in the original HOG paper, SVM is used as the classifier. However, since we need a probability distribution of up and down moves to form the long-short portfolio, we replace SVM by logistic regression, a more intuitive classifier that directly outputs an “up&quotprobability. In fact, we also implemented a HOG model with SVM and use the distance to the hyperplane as an alternative to up probability. The portfolio performance is inferior to the model with logistic regression. As a result, we only report the performance of HOG model with logistic regression.한 가지 알아놓아야 할 것은 원래 HOG 연구에서는 분류모델로 SVM이 사용되었다는 것입니다. 하지만, 저희는 수익률이 양일/음일 확률 분포로부터 롱숏 포트폴리오를 구축해야하기 때문에 SVM을 로지스틱 회귀로 대체했습니다. 이를 통해 더욱 직관적으로 “오를” 확률이란 결과를 얻을 수 있습니다. 사실은 HOG를 SVM으로도 해봤습니다.. 그리고 오를 확률을 hyperplain으로부터의 거리.. 로도 해봤습니다. 해봤는데, 포트폴리오 성과가 로지스틱 회귀를 했을 때가 더 좋았습니다. 그래서 결과로는 로지스틱 회귀를 돌렸을때에 대해서만으로 보이도록 하겠습니다.To ensure a fair comparison, the same setup of our CNN model is applied to these benchmark models. Specifically, all models are trained with the same training dataset of CNN model. In addition, for the HOG model, 5 models are trained independently to form an ensemble model. As for the HAAR-like model, since Adaboost is already an ensemble model (with 50 weak learners), it is not necessary to apply additional ensembling.공정학 비교가 되도록 하기 위해 CNN 모델과 같은 셋팅을 벤치마크에 적용했습니다. 즉, 모든 모델은 CNN의 학습 데이터셋과 동일하게 하고 HOG의 경우에선 5개의 독립적인 모델이 훈련되어 앙상블 됩니다. HAAR-like model의 경우에선 Adaboost가 이미 앙상블 모델이기 때문에(50개의 weak learners로 되어있음), 추가적인 앙상블링은 필요치 않았습니다.​For the HOG model, there are 192 features for 5-day images, 2,464 features for 20-day images, and 12,320 features for 60-day images. Due to the large size of the training data, the model is trained with stochastic gradient descent that minimize the log loss, which gives logistic regression. L2 norm is used as regularizer with optimal coefficient selected from 0.001, 0.0001, and 0.00001. Finally, 2/7 of the training data are set aside to be used for early stopping that stop the training process after 2 epochs without loss decreasing.HOG 모델에서 5-day 이미지에서는 192개의 feature, 20일 이미지는 2,464개 feature, 60-day 이미지는 12,320 feature가 있습니다. 학습 데이터가 이렇게 크기 때문에 로지스틱 회귀에서의 손실을 최소화하는데에는 확률적 경사하강법을 사용했습니다. 또한, regularizer로 L2-norm이 사용되었으며, 최적의 계수로는 0.001, 0.0001, 0.00001 중 하나로 사용했습니다. 마지막으로 2 epoch 후에도 학습데이터의 2/7은 손실이 감소하지 않을 때에 early stopping하는 알고리즘이 적용되었습니다.​As for the model on HAAR-like features, recall that there are 142,654,68 HAAR-like features in a 60-day image of size 96x180. It is impossible to enumerate all those features and use them for training. Due to limitation in time and computing power, we have to use a heuristic method to generate most important HAAR-like features. One popular approach to select top HAAR-like features is to train an Adaboost model on only part of training data and select features with the highest feature importance. Since the pixel images are very sparse, to further speed up the process, we also resize the images to smaller sizes before extracting features. We keep the size 32x15 of 5-day images but shrinks the size of 20-day images from 64x60 to 22x22, and the size of 60-day images from 96x180 to 16x30. After the resizing, the total number of HAAR-like features are 112,392, 114,433, and 112,606 for 5/20/60-day images respectively. For each model, we randomly sample 10k images and train an Adaboost model on all features and select the top 100 features with the highest feature importance. Then we generate the above 100 top features for all images and train an Adaboost model with 50 weak learners (decision stumps).HAAR-like features 모델의 경우에는 96x180 사이즈의 60-day 이미지에 대해 142,654,68개의 HAAR-like features가 있었다는 것을 상기시켜주십쇼. 모든 feature를 열거하고 학습에 사용하는 것은 불가능합니다. 시간과 컴퓨팅 파워를 고려해봤을때, 중요한 HAAR-like features를 선택하는ㄷ게 있어서 휴리스틱 방법론을 사용할 수 밖에 없었습니다. 이중 하나 인기인등 방법론으로 학습 데이터의 일부만 Adaboost로 학습시키고 중요도가 가장 높은 feature를 선택하는 것입니다. 픽셀 이미지는 매우 듬성듬성 하기 때문에 속도를 더 증가시키기 위해 사이즈를 더 축소하는 작업이 진행되기도 했습니다. 5-day 이미지의 크기는 유지시키고, 20-day와 60-day의 이미지는 각각 64x60에서 22x22으로, 96x180에서 16x30으로 축소시켰습니다. 이렇게 크기 조정을 한 후의 5/20/60 이미지에 대한 feature 갯수는 각각 112,392, 114,433, 112,606개가 되었습니다. 각각의 모델에서는 랜덤하게 10K 개의 이미지를 선택하여 Adaboost 모델로 학습하여 중요도 순으로 top 100개의 feature를 선택합니다. 그리고 모든 이미지에 대해 위의 top 100개 feature를 생성하여 50개의 weak learners로부터 Adaboost학습을 진행합니다.​Table IA17 compares the performance of decile H-L portfolios from CNN, HAAR, and HOG models. In general, CNN outperforms both HOG and HAAR with few exceptions of strategies for longer horizons.표 IA17에서는 CNN, HAAR, HOF 모델을 사용한 롱숏 포트폴리오의 성과를 나타내었습니다. 더 긴 기간의 데한 전략을 제외하고는 CNN이 다른 두 모델보다 전반적으로 더 나은 성과를 https://i-model-h0use.com 보입니다.​

List 0

No comments have been registered..

Writing a comment

OK
Write the numbers in order.