https://www.facebook.com/groups/agikr/posts/2401082746899436/
원글은 LLM의 내부 원리 연구에 대한 글 (댓글 링크)을 읽고,
머신 러닝 깔짝만 거려본 사람의 소감을 붙여 더 간단히 해석해보면.
조기교육이 중요하다. 카오스 이론의 초기 끌개와도 같다. 초기에 학습된 조건들이 더 많이 강화된다. 엄마 아빠가 유아 때 부터 잘 돌 보는 것이 좋다. 아니면 아예 고아인 것이 나을 수도 있다. (데이터 편향이 없다) 또는 강한 트라우마로 잘못된 조기 교육을 뒤엎을 음의 가중치가 필요할 수도 있다. (인용 본문에 뒤에 실수 교정에 대해 다시 거론됨) 인간에게 있어 어떤 것이 좋은 조기교육인지는 사실 우리가 잘 알지 못한다.
데이터의 역방향(부정)은 학습이 어렵다. 인간도 그렇다. 인간은 부정의 개념을 이해하지 못한다는 이론이 있다. 예를 들어 코끼리를 생각하지 마라고 할 때 우리는 코끼리 생각을 강화한다. 이것은 단순히 AI도 부정의 개념을 학습하기 어렵다는 것을 넘어서 무언가를 학습시킬 때, 투입하는 데이터의 중요성을 뜻한다. 어차피 부정을 이해하기 어려우므로 집어넣는 데이터에서를 통해서만 부정의 개념을 획득할 수 있다. 예를 들어 인권은 중요하다를 강화했다면 어렴풋이 살인은 안 된다를 추론할 수 있다. 같은 맥락에서 일베에서 유머만 골라 봅니다는 불가능하다.
데이터 불균형이 문제다. 일베만 보고 자란 청소년은 일베가 된다. 데이터의 양이 많은 쪽으로 학습되는 문제는 머신러닝의 오래된 문제다. 단지 양이 문제라면 데이터에 권위를 부여할 수도 있다. 위키피디아 태깅은 그런 행동이다. 그래서 밥상머리 교육이 중요하다. 어릴적의 가정교육은 데이터의 양도 많지만 권위 태깅이 붙어있다. 부모가 친일파이고 막대한 상속재산이 있다면? 자본주의 사회에서는 상속재산은 강력한 권위를 갖는다. 이 상속자는 어떤 데이터를 크롤링 할까? 확증편향은 크롤링 동작 원리 중 하나다.
한 편으로 bagging 과 같은 기술은 편향 데이터가 특정 텀에 몰려 들어올 때의 학습 편향을 해소해준다. 시계열의 데이터에서 시간축을 흔든다. 같은 이치로 가정 교육은 데이터의 양은 적지만 시간축의 전반에 걸쳐 들어오므로 데이터의 편향이 있다하더라도 bagging 과 같은 효과를 낼 수 있다.
데이터 불균형을 해소하는 방법으로 오버샘플링, SMOTE 등의 기법이 있다. 더 적은 쪽의 데이터를 더 자주 때려넣는다. 할렘가에서 자랐다해도 부모가 길에서 침뱉지 마라, 친구를 때리면 안 된다를 어릴때 계속 때려넣으면 데이터 불균형을 어느정도 극복할 수 있다.
실수를 수정하기 위해서는 실수라는 태깅을 하는 것이 효과적이다. 우리는 극단적인 예로 트라우마 같은 현상을 뇌에 탑재하고 있다. 또 한 편으로 인간에게는 훈육, 체벌, 윤리, 도덕, 사법체계 등이 있고, 충분히 제대로 학습된 두뇌는 반성, 참회, 회고, 비판, 복기 등등의 기제를 갖고 있다. 그러나 이미 편향된 데이터로 강화된 뉴런은 실수를 수정하기 어렵고 더 광범위한 영역에 실수 태그를 붙인 데이터를 더 많이 밀어넣어야 한다. 일베는 반성하기 어렵다.