- 제목
- 일자리 위협하는 인공지능?…두려움보다는 이해하고 대비하는 자세 필요 -조성배 컴퓨터과학과 교수 (2024-11-20)
- 작성일
- 2025.01.09
- 작성자
- 첨단컴퓨팅공학부
- 게시글 내용
-
“인공지능을 일종의 도구로 생각한다면 이를 잘 활용하는 사람과 그렇지 못한 사람의 격차가 커지는 방식으로 일자리가 변할 것이다. 이에 유의하여 인공지능의 실체를 잘 이해하려는 노력과 적극적으로 활용하려는 자세가 필요하다.”
막연하게 생각하던 인공지능이 이제는 현실 속으로 들어왔다. 일상생활 속에서도 인공지능을 만나는 것이 생소하지 않은 시대에, 과연 우리는 인공지능과 함께 살아갈 준비가 되었는가?
2022년 11월 말 등장과 함께 5일 만에 100만 명, 2개월 만에 1억 명의 사용자를 확보한 챗GPT가 다시금 인공지능과의 공존을 고민케 한다. 챗GPT는 복잡한 사용법 없이 자연스러운 말로 문장의 요약이나 번역은 물론이고 보고서의 작성이나 코딩에 이르기까지 광범위한 영역에서 놀라운 성능을 보여주고 있다.
어떻게 이런 것이 가능할까? 챗GPT는 이름이 의미하는 것처럼 GPT(Generative Pre-trained Transformer)라는 기술을 기반으로 채팅 서비스를 하는 인공지능이다. 기존의 언어모델은 문장 내의 특정 위치에 어떤 단어가 나오면 자연스러울지 예측하는 것인데, 이제까지는 대용량 코퍼스(말뭉치)로부터 확률적으로 계산하여 구축했다.
반면에 챗GPT는 엄청나게 많은 파라미터를 갖는 신경망을 매스크드 학습(masked learning)과 같은 자가학습(self-supervised learning) 방식으로 대형 언어모델을 구축한 후 미세조정(finetuning)을 통해 자연스러운 대화가 가능케 하였다. 미세조정을 하면 이전 구절이나 문단으로부터 다음 구절이나 문단을 예측하는 것이 가능하게 되어 질문에 대한 자연스러운 답변이 가능하다. 이 기술의 어디에 인간의 사고 과정이나 대화방식과 유사한 것이 있는가.
인공지능은 보고, 듣고, 추론하고, 판단하는 사람의 인지기능을 컴퓨팅 기술을 이용하여 인공적으로 만드는 것인데, 사실 대부분의 인지기능은 어떻게 작동하는지 구현할 수 있는 수준까지 밝혀내지 못했다(마빈 민스키, 2019). 그럼에도 불구하고 인공지능 분야에서는 탐색, 논리, 확률망, 신경망 등 다양한 기술을 고안하여 그 기능을 모방하여 재현하고자 하였다. 그리고 때로는 인간의 지능이 발현하는 기능보다 더 우수한 성능으로 실현하는 것이다(조성배, 2017).업무처리 방식의 혁신 가져와
인간의 자연스러운 대화 기능을 구현한 챗GPT는 인터넷상의 정보를 검색하는 것에서 시작하여 일상생활에 들어오기 전에 먼저 사무실을 공략하고 있다. 마이크로소프트는 빙(Bing)에 머물지 않고 코파일럿(Copilot)을 내놓고, 구글은 바드(Bard)를 넘어 대화형 구글 워크스페이스를 선보였다.
방대한 지식을 보유하고 있는 조력자를 곁에 둘 수 있다면 이제까지의 업무처리 방식이 크게 바뀔 것이다. 자료를 조사하고 분석하여 논지를 세우고 결론에 도달하는 과정이 원하는 바를 지시하고 제시된 결과물을 수정하는 식으로 변할 것이다.
이러한 업무처리 방식의 혁신은 필연적으로 생산성의 향상을 가져올 것이다. 마이크로소프트는 오피스 제품군에 GPT-4를 결합한 MS 365 코파일럿을 제공하여 불필요한 시간 낭비를 줄이고 중요한 일에 집중할 수 있도록 함으로써 업무의 생산성 향상을 꾀하고 있다.
문서의 초안 작성과 편집, 엑셀 자료의 추세분석과 시각화, 워드문서를 기반으로 파워포인트 슬라이드의 제작 등이 간단한 문장으로 처리될 수 있다. 구글 워크스페이스도 구글 서비스를 활용하는 사용자들이 이전과 다른 방식으로 협업할 수 있도록 한다. 인공지능은 생산가능 인구의 감소를 해결하는 생산성 향상의 도구로 활용될 수 있다. 현대사회에 만연해 있는 노동인구나 사회복지인구의 부족을 해결하는 역할을 할 것이다.
장기적으로는 핵가족화, 일인 가족화에 따른 고독감이나 소외감과 같은 사회문제를 해결하는 동반자로 활용될 수 있다. 결국 인공지능은 편의성과 효율성 증대를 통하여 우리 삶의 질을 높이는 이로운 기계가 될 수 있을 것이다(스튜어트 러셀, 2021).
거짓 정보, 저작권 침해 유의해야
인간의 성능에 버금가는 인공지능이 등장할 때면 어김없이 일자리 문제가 제기되곤 한다. 인공지능이 너무 잘해서 내가 하는 일까지 빼앗아 가면 어쩌나 걱정한다. 하지만 이제까지 새로운 기술이 도입되는 과정을 돌이켜보면 없어지는 일자리보다 새로 생기는 일자리가 늘어나는 경향이 있다.
인공지능을 일종의 도구로 생각한다면 이를 잘 활용하는 사람과 그렇지 못한 사람의 격차가 커지는 방식으로 일자리가 변할 것이다. 이에 유의하여 인공지능의 실체를 잘 이해하려는 노력과 적극적으로 활용하려는 자세가 필요하다.
또한 챗GPT가 엄청나게 수려한 문장으로 답변하지만, 학습에 사용하지 못한 최신 데이터에 대해서는 정확하지 않을 수 있고, 제시한 답은 검색이 아니라 파라미터에 표현된 관계성에 기반하여 생성한 것이기 때문에 그럴듯하게 보이는 거짓된 정보(hallucination)일 수도 있다.
이 이외에도 개인정보 유출이나 보안 위협 등이 곳곳에 도사리고 있어서, 사용한 데이터의 저작권이나 개인정보 침해 문제에 유의해야 한다.
특히 챗GPT와 같은 고도의 인공지능을 악용하면 치명적인 사이버 공격이 가능할 수 있다. 인공지능으로 이를 방지하는 보호 수단이 있지만 프롬프트를 수정하여 쉽게 우회할 수 있어 비전문가도 큰 어려움 없이 사이버 공격을 펼칠 수 있다.
인공지능의 오작동이나 오남용으로 발생하는 피해를 예방하기 위해서는 법적 책임소재를 명확히 해야 한다. 인공지능에 의한 사고나 그 처방에 대한 신뢰 여부를 법적으로 어떻게 규정할 수 있는지도 고민해야 할 것이다.
또한 인공지능을 통해 고급 서비스의 보편화가 이뤄질 것이라는 예상도 있지만, 이를 개발하고 운용하는 기업이나 정부의 운영 방향에 따라 계층 간 격차가 심화하면 사회적 문제를 초래할 가능성도 있다.
[유튜브 영상 보러가기]
인공지능과 더불어 사는 법
최근 챗GPT로 야기된 인공지능의 열풍으로 인간을 뛰어넘는 일반 인공지능(AGI)이 곧 등장할 것 같은 분위기이다. 하지만 지능은 본질적으로 다양한 측면을 내포하고 있고, 모든 분야에서 작동하는 일반 인공지능은 다른 차원의 기술혁신을 요구한다.
인공지능을 이야기하다 보면 자꾸 인간의 지능체계를 떠올리는데, 궁극의 인공지능은 인간과 똑같을 필요도 없고 오히려 완전히 이질적일 가능성이 더 크다. 인공지능이 인간의 감정이나 생존을 동기로 삼을 필요는 없으니까.
인공지능 분야에서는 챗GPT 이후에도 계속 놀라운 기술이 등장할 것이다. 말에 머물지 않고 영상이나 소리 등 다양한 종류의 데이터에 대해서 교차로 서비스하는 것이 예상된다.
이런 인공지능과 함께 잘 살려면 인공지능이 발현하는 기능을 의인화(anthropomorphize)하여 과도한 기대와 우려를 하지는 말아야 하는데, 결국 인공지능의 본질을 잘 이해할 필요가 있다.
인공지능을 이해하고 잘 다룰 수 있도록 기초소양을 키우는 데 필수적인 소프트웨어를 다루고 데이터를 분석하는 능력을 배양해야 한다. 고성능 인공지능의 개발과 더불어 이 기술이 인권을 침해하고 있는지 판단해 봐야 하고, 문제가 발생하면 그 책임 소재를 물을 수 있는 잣대가 있어야 한다.
또 인공지능이 무슨 일을 하고 있는지 개발 과정에서부터 투명성을 확보해야 하며, 인공지능 발전 과정에서 오용을 방지하기 위해 사회적으로 인식을 공유할 수 있는 장치가 마련돼야 할 것이다.
궁극적으로는 인공지능 기술이 고도화될수록 자동화 수준은 더욱 높아질 것이다. 이를 통해서 인간 사이에서의 커뮤니케이션 방식으로 인공지능과 협업하는 세상이 올 것으로 예상된다.
아직 미완성이라 더욱 발전할 여지는 있지만 아무리 발전해도 인공지능은 완벽할 수 없으며, 어떤 기능을 잘한다고 그 이외의 다른 기능도 잘할 것이라 단정할 수 없다. 챗GPT의 열기에 들떠서 갑론을박에 시간을 낭비하기보다는, 이를 어떻게 활용해야 우리의 삶에 도움이 될지 심각하게 고민해야 할 시점이다.
[기사 원문 보러가기]
출처: 교수신문
- 첨부
- image.jpg