인공지능에 대한 규제가 필요하다는 얘기가 여기저기서 심상치 않게 들린다. 한마디로 인공지능을 지금부터 통제하지 않으면 쥐도 새도 모르게 인공지능이 인간을 지배하는 SF영화와 같은 일들이 벌어질 수 있다는 얘기다. 이에 유럽연합(EU)은 생성형 AI가 학습에 이용된 데이터의 출처와 저작권 등의 공개를 의무화하는 인공지능법을 준비하고 있다. 해당 법안은 데이터의 위험도에 따라 인공지능 기술을 금지, 고위험, 제한된 위험, 최소 위험으로 분류하는데, 그 중 금지된 인공지능에 해당될 경우에는 인공지능 기술의 적용을 금지할 수도 있다는 내용이 담겨 있다. 이를 두고 다른 한편에서는 이러한 규제들이 오히려 인공지능의 발전을 저해할 수 있다는 우려의 목소리도 동시에 나오고 있다.
사실 기술 규제는 비단 인공지능만의 이슈가 아니다. 기술에 대한 규제는 새로운 기술이 등장할 때마다 끊임없이 논의되어 왔다. 아무리 완벽한 기술이라 할지라도 그 파급효과까지 완벽할 수는 없다. 그래서 기술 규제는 기술이 조금은 제한된 환경에서 보다 올바른 방향으로 사용될 수 있도록 설계된다. 그렇다면 앞으로 우리 사회의 인공지능 규제는 어디에 초점을 맞춰 설계되어야 할까? 유럽연합의 사례를 통해 우리는 앞으로 나아가야 할 방향성과 관련된 중요한 정보를 얻을 수 있다.
유럽연합의 인공지능 규제 법안을 간단히 정리해보면 결국 요지는 인공지능 기술 그 자체보다 인공지능을 개발하는데 있어 활용되는 데이터를 제한하겠다는 것이다. 한마디로 인공지능의 활용, 시장에서의 경쟁, 기술 그 자체의 진보에 있어서 데이터의 역할이 매우 중요하다는 것이다. 이는 앞으로 인공지능 경쟁은 사실상 데이터 경쟁임을 의미하며, 좋은 양질의 데이터를 보유하는 것이 중요하다는 점을 시사한다. 또 다른 시사점은 인공지능 시대에서 완전한 지식의 공유는 없다는 것이다. 인공지능이 보편적 지식 확산에 기여하더라도 여전히 학습한 데이터의 가치에 따라 지식의 불균형이 발생하게 될 것이며 이는 지금보다 더 불평등한 사회적 구조를 초래할 수 있음을 의미한다.
앞으로 인공지능 시대에서 우리나라가 다른 선진국과의 경쟁에서 잘 살아남기 위해서는 기업 뿐만 아니라 여러 구성원들의 노력과 이를 뒷받침할 수 있는 적절한 기술규제의 설계가 수반되어야 할 것이다. 앞선 사례들을 통해 파악한 것처럼, 인공지능 규제는 우리나라가 보유한 양질의 데이터를 보호하고 그 가치를 높일 수 있는 방향으로 설계되어야 하며, 동시에 우리 사회 안의 지식 불균형 혹은 인공지능으로 인한 정보 차별을 방지 또는 완화할 수 있어야 한다. 인공지능 기술규제가 단순히 기술에 대한 규제가 아니라 데이터에 대한 규제인 것을 기억하자.
우리가 결국 지금 더 보호해야하는 것은 최첨단의 기술이 아니라 남들이 갖지 못한 우리만의 고유한 데이터일지도 모르겠다. 우리 기업과 젊은 청년들이 인공지능 시대에서 자유롭게 역량을 펼칠 수 있는 그런 인공지능 규제가 마련되길 바란다.