워낙 유명한 책이고 강의 중에 박사님이 강조하시기에 꼭 읽어보고 싶었는데
절판된 지 오래라 도저히 구할 수가 없어서 원서를 보자 하고 찾아보니 그사이 6판이 
나왔더군요.
주문해서 관심가는 챕터를 중간중간 4챕터쯤 읽어보니 무리 없이 잘 읽히더군요.
물론 영어독해 실력이 좋아서는 절대 아니고 이번에 나온 구글 제미나이 3.0이 너무나 완벽하게
번역을 해줘서 아주 수월하게 읽고 있습니다.
번역기 수준의 단순 직역이 아니라 대규모 언어기반 모델(LLM, Large Language Model)이 가지고있는
신경과학에 대한 배경지식을 바탕으로 번역을 해주고.
원문대로 해석하라는 제약설정을 안해 놓으면 오지랖 부리며 번역 사이사이 뭔가 지식을 더 전달하려고 하더군요.
물론 그게 터무니 없는 학술정보는 아니고 다 LLM모델로 어지간히 검증된 정보들인듯해 
문장번역 넘어 신경과학 지식을 이해하기에는 분명히 도움이 되는 것 같습니다.
특히 This 나 That 같은 지시대명사가 무얼 의미하는지 분간하는 것이 영어독해에
상당한 영향을 미친다고 생각하는데 원문에는 없는 괄호열고 저 지시대명사가 무얼 의미하는지
짧은 함축단어를 병기하는거 보고 감짝 놀랐습니다.
번역서 읽기와는 다르게 원서를 문장단위로 해석하며 읽으니 더 집중하게되서
신경과학에 관한 전달지식이 조금더 오래 기억에 남는것 같기도 합니다.
하여간 절판된 5판 못구하셔서 애타는 분이 계시다면 6판 원서를 구매하시길 개인적으론 추천합니다.

대규모 언어기반 모델(LLM, Large Language Model) 의 놀라운 발전속도는 공부하는 사람에게는 
축복이라고 생각합니다. 

LLM 인공지능의 원서 번역으로 공부를 하면서 박사님이 강의 중 자주 말씀하시는,
모든 학문은 근본적으로 언어학이라는 말씀이 새롭게 다가오네요.

모든 학문의 기본은 그학문의 개념언어를 먼저 숙지하는게 먼저고 그 개념언어가 만들어지는
원어민의 언어를 모국어와 같은 수준으로 즉각 받아들이는데 LLM 인공지능이 기여한다면.
비트겐슈타인이  말하는 그사람의 언어가 그사람의 우주다에서 그 확장우주가 갑자기 무섭도록
쉬워지는 현상?  ^^