안녕하세요 교수님
L1 regularization에 대한 질의를 하고자 합니다.
우선 regularization이 overfitting을 방지하는 일반화 과정을 할 수 있도록 도움을 주는 term이고 L1 regularization의 미분으로 인해 0에 가까운 w를 많이 만들어낸다는 사실까지는 이해를 했습니다.
그러나 L1 regularization에서 0을 만들지 않는 w가 좋은 feature일 것이라는 보장이 있는 것인지 잘 모르겠습니다.
classification에서 좋은 feature 일지라도 w가 0에 가깝게 만들게 되지 않을까 하는 것이 저의 생각인데 이에 대한 의견을 주시면 감사하겠습니다.
comment