【 청년일보 】 네이버 어학사전에서 '돌'을 검색하면 '바위보다는 작고 모래보다는 큰 것'이라는 설명이 있다. 그리고 '바위'를 검색하면 '부피가 매우 큰 돌'이라는 설명이 있다. 돌과 바위를 모두 모르는 사람이 이 사전을 보면 어떻게 생각할까? 돌의 의미를 먼저 확인하고 바위의 의미를 찾으려 할 때 다시 돌의 의미를 찾아야 하는 모순적인 상황이 발생한다. 명제 A를 명제 B가 설명하고, 명제 B를 명제 A가 설명하는 순환 논증은 논리적 모순으로 A와 B 명제 모두 설명하지 못한다. 이러한 모순이 왜 어학사전에 존재할까? 책 '언어로 살펴본 일본 문화'에선 이러한 사전의 모순을 설명한다. 책 자체는 일본어에 담긴 일본 문화 양식을 설명하고 일본어가 다른 나라의 언어와 어떤 점이 다른지를 설명한다. 책 중간에 위 문단에서 언급한 사전의 모순적인 설명에 대한 견해가 나오는데, 저자는 사전이 단어의 의미를 독자에게 완벽하게 이해시킬 수 없다고 주장한다. 예를 들어 사전에서 '떫다'의 의미를 찾으면 '설익은 감의 맛처럼 거세고 텁텁한 맛이 있다'라고 설명한다. 설익은 감의 맛을 알지 못하면 '떫다'의 의미조차 이해할 수 없는 것이다. 저자는 사전의 모순적인 설명을
【 청년일보 】 최근 인공지능 분야는 눈부신 발전을 이루었다. 그림을 그려주는 인공지능부터 웹 정보를 기반으로 인간과 대화하는 chatGPT까지 인간의 창의성까지 인공지능이 모사하는 수준에 이르렀다. 이러한 발전을 체험한 몇몇 사람들은 인공지능이 데이터만 있으면 특정한 일을 완벽하게 해낼 수 있을 것이라 믿는다. 과연 인공지능이 실수 없이 100% 자신이 맡은 일을 정확하게 수행할 수 있을까? 결론부터 말하자면 불가능에 가깝다. 그 이유는 인공지능 모델이 너무나도 뛰어나기 때문이다. 왜 인공지능 모델 성능이 뛰어남에도 불구하고 인공지능에 오류가 발생할까? 이는 과적합(overfitting)이 주요한 이유로 작용한다. 간단한 예시를 생각해 보자. 2차원 좌표평면 상에 y = x 위에 있는 100개의 좌표를 인공지능 모델에 학습해서 x 값을 넣었을 때, 그 값 그대로 출력하는 모델을 만든다고 가정하자. 현재 놀라운 성능을 보여주는 딥러닝 모델을 이러한 예시에 사용한다면 인공지능 모델은 이 100개의 점을 모두 지나는 100차 함수를 학습하게 된다. 분명 학습 데이터에 있는 표본은 모두 인공지능 모델에 의해 예측 가능하다. 그렇다면 이 모델을 완벽하다고 할 수 있
【 청년일보 】 우리 주변에는 다양하고도 많은 데이터들이 생겨나고 사라진다. 고전적인 데이터는 관계형 모델(Relation model)에 따라 행과 열로 저장되는 정형 데이터이다. 우리가 많이 사용하는 엑셀처럼 행에는 각기 다른 표본들이 저장돼 있고, 열을 통해 모든 표본들이 가지는 속성에 접근할 수 있다. 데이터베이스 분야에서 정형 데이터는 가장 기본이 되는 데이터 구조이며 데이터 구성, 데이터 저장, 결측치 처리 등 데이터베이스를 더욱 발전시키 위한 연구가 많이 진행됐다. 이렇게 여러 데이터를 정형 데이터로 변환할 수 있기 때문에 초기 인공지능 모델도 정형 데이터에 맞춰 제작됐다. 선형 회귀 모델, decision tree 기반 모델 등 딥러닝 이전의 모델들은 정형 데이터를 사용해 모델을 학습했다. 정형 데이터의 각 열을 독립 변수로 생각하여 연구자가 관심을 가지는 종속 변수에 대해서 예측하거나 추론했다. 하지만 빅데이터의 시대가 찾아오면서 기존의 데이터 구조를 벗어나는 데이터들이 많이 등장했다. 그림, 영상, 텍스트, 로그 데이터 등 관계형 모델로는 표현할 수 없는 데이터들을 비정형 데이터라 한다. 비정형 데이터는 그 분야가 굉장히 다양해서 각 데이터마
【 청년일보 】 컴퓨터 성능이 발전함에 따라 인공지능은 비약적으로 성장하였다. 단순히 정형 데이터에서 종속 변수를 예측하는 수준을 뛰어넘어, 이미지를 분류하거나 생성하고 때로는 복잡한 게임의 전략을 찾아내 인간을 이기는 인공지능이 되었다. 이렇게 놀라운 발전을 이뤄낸 기술에는 항상 취약점이 있기 마련이다. 인공지능에 대한 연구가 활발히 이루어지던 시점부터 인공지능의 보안에 대한 염려는 항상 제기되어왔다. 컴퓨터 보안 분야에서 기계의 취약점을 찾아내고 공격을 방지하는 방법을 연구하듯이, 기계 학습 알고리즘에 대한 공격과 방어를 연구하는 분야를 적대적 기계 학습(adversarial machine learning)이라고 한다. 인공지능을 공격하는 방식 중 가장 대표적인 방법인 회피 공격(evasion attack)은 입력값을 조작하여 인공지능이 잘못된 판단을 내리도록 만드는 공격이다. 일례로 자율 주행 자동차가 스티커가 붙은 정지 표지판을 최고 속도 45 표지판으로 인식하였다. 이는 입력값에 약간의 노이즈만 더해도 인공지능이 오판단을 일으키고, 더 나아가 사람의 생명을 위협할 수 있다는 것을 보여준다. 이외에도 얼굴 인식 인공지능을 속일 수 있는 특수 안경, 사