상단 본문

지난 2년간 AI 활용에 대한 중간 평가 (2)

  • AI
  • 챗GPT
  • 평가
  • 프로그램
  • 조성우


(앞 글에서 계속) 요즘에 실천 현장의 일부에서는 업무용으로 AI 사용 빈도가 높아지는 현상에 대한 우려의 목소리가 감지되고 있다. 그 핵심은 AI가 사회복지사의 철학과 클라이언트를 도우려는 의지를 크게 약화시키고 있다는 것이다.

 

1. 일부 사회복지사의 AI 의존 심화

AI의 도입은 많은 유익을 가져왔지만, 특히 경력이 짧은 젊은 사회복지사나 신입 사회복지사들에게는 AI에 대한 과도한 의존이라는 문제를 야기할 가능성이 높아지고 있다. 깊이 있는 사고 과정 없이도 몇 가지 명령만으로 양질의 문서를 손쉽게 확보하는 일이 발생하고 있다. 그 결과, 문서 작성에 AI를 활용하는 것이 습관화되면서 젊은 사회복지사들은 문서를 직접 작성하고 구조화하는 기본 역량을 쌓는 데 어려움을 겪기 시작했다. AI의 편리함에 의존해 비판적 사고나 창의적 문제 해결 능력을 발달시키지 못한다면, 실무 현장에서 발생하는 복잡한 상황에 대처하는 능력이 저하될 위험이 있다.

 

이는 궁극적으로 사회복지 서비스의 질을 저하시키는 결과를 초래할 수 있다. 사회복지 현장은 복잡하고 예측하기 어려운 상황이 많은데, AI가 제공하는 단순화된 해결책만으로는 충분하지 않다. 신입 사회복지사들이 실천 경험을 쌓고 필요한 역량을 발전시키기 위해서는 AI가 아닌 자신의 사고력과 경험을 기반으로 업무를 처리하는 능력을 키워야 한다. AI의 사용은 보조 도구로서 제한적으로 활용되어야 하며, 개인적 역량을 배양하는 노력이 반드시 병행되어야 한다.

 

2. 성찰과 반성을 통한 철학적 숙성의 부족

사회복지사에게는 클라이언트와의 상호작용에서 발생하는 문제를 깊이 성찰하고 반성하는 과정이 필수적이다. 이러한 과정은 사회복지사의 직무 철학을 형성하고, 클라이언트의 복지 향상에 최선을 다하는 데 기초가 된다. 그러나 AI의 도입으로 인해 이러한 성찰의 기회가 줄어들고 있다. AI가 빠르게 해결책을 제시함에 따라 사회복지사들이 문제를 스스로 고민하고, 그에 따른 윤리적, 철학적 결정을 내리는 경험이 감소하고 있는 것이다.

 

특히, 사회복지사는 인간의 복잡한 맥락을 다루고, 개인의 삶에 영향을 미치는 중대한 결정을 내려야 한다. 이러한 결정은 단순히 데이터를 기반으로 하는 것이 아니라, 상황에 대한 깊은 이해와 클라이언트의 입장을 고려한 공감을 통해 이루어진다. AI는 이러한 정서적, 철학적 숙성을 대신할 수 없기 때문에, 사회복지사는 AI의 편리함에 의존하지 않고 끊임없이 자기 성찰과 반성을 통한 성장의 노력을 기울여야 한다. 이는 실천 경험이 풍부한 사회복지사가 아닌 젊은 사회복지사들에게는 어려운 요구일 수 있다.

 

3. 정확하지 않은 정보 사용 증가

AI 활용에서 또 다른 위험성은 AI가 제공하는 정보의 정확성에 있다. AI는 방대한 데이터를 학습하여 답변을 생성하지만, 그 정보가 항상 정확하거나 고품질의 데이터에 기반한 것이라고 보장할 수 없다. 잘못된 정보가 포함된 자료를 바탕으로 클라이언트에게 잘못된 서비스를 제공하거나 프로그램의 방향을 잘못 설정할 위험이 존재한다. 지금 당장 클라이언트를 위한 프로그램 아이디어를 100개 작성하라는 지시를 내리면, AI는 아무런 신중함도 없이 즉시 100개의 아이디어를 조합해 낼 것이다. 이 결과를 그대로 수용했다가는 클라이언트의 복지에 부정적인 영향을 미칠 수 있으며, 사회복지사의 신뢰도를 저하시키는 결과를 초래할 수 있음은 자명하다.

 

따라서 사회복지사들은 AI가 제공하는 정보를 무비판적으로 수용하지 말고, 항상 정보의 출처와 정확성을 검토해야 한다. AI는 자료 수집과 초안 작성의 도구일 뿐, 최종적인 판단과 결정은 여전히 사람의 몫임을 잊지 않아야 한다.

 

4. 프라이버시와 데이터 윤리 문제

AI 활용 시 또 다른 중요한 고려사항은 클라이언트의 개인정보 보호와 데이터 윤리 문제이다. AI 시스템이 클라이언트의 정보를 처리하는 과정에서 개인정보가 노출될 위험이 있으며, 이는 클라이언트의 권리를 침해할 수 있다. 클라이언트는 자신의 정보가 AI에 입력되는 것을 원치 않을 것이다. AI를 개발한 조직은 대부분 영리 기업으로, 노출된 정보가 재가공되어 사용될 가능성은 얼마든지 있다. 사회복지사는 이러한 윤리적 문제를 신중히 고려해야 하며, 클라이언트의 데이터를 처리할 때 법적 기준을 준수하고 개인정보 보호를 최우선으로 해야 한다.

 

결론: 인간 중심의 실천과 AI 활용의 균형 찾기

어떻게 해야 AI에 대한 의존성을 줄이고, 한 인간이자 인간 문제 해결의 전문가로서 자유롭게 성찰하며 실천할 수 있을까? 첫째, 개인적 차원에서 사회복지사는 자기 정체성을 확립하고 '클라이언트를 진심으로 도우려는 의지'를 지속적으로 갖도록 노력해야 한다. 이러한 의지가 있다면 AI의 존재 여부와 관계없이 사회복지사는 스스로 성찰하고, 전문가로서 발전하고자 노력하게 될 것이며, AI 역시 자기 성장의 도구로 적극 활용할 수 있을 것이다. 둘째, 조직적 차원에서 AI 활용을 위한 윤리적 가이드라인을 마련해야 한다. 이러한 가이드라인은 사회복지사들이 AI를 사용하는 과정에서 클라이언트의 권리와 개인정보 보호를 최우선으로 고려할 수 있도록 돕는다. (다음 글에서는 이 윤리적 가이드라인의 초안을 제시할 예정이다.)

 

늘 그렇듯이 기술의 발전이 사회복지 현장에 많은 유익을 가져왔지만, 궁극적으로 중요한 것은 우리의 정체성을 잃지 않는 것이다. 단순히 직장인으로서만 살아가는 삶은 충분하지 않다. 클라이언트를 도우려는 열망을 지닌 전문가로서 우리 자신을 규정해야 하며, 이 열망이 클수록 우리는 AI를 통제하며 활용할 수 있게 될 것이다. 클라이언트를 돕기 위해서는 AI가 제공하는 효율성뿐만 아니라 인간의 공감, 윤리적 판단, 그리고 깊은 상호작용이 필수적이다. 사회복지사는 AI를 단순한 보조 도구로 활용하고, 클라이언트와의 관계 형성 및 문제 해결 과정에서 인간적 접근을 잊지 않아야 한다.


※ 이 저작물은 크리에이티브 커먼즈 저작자표시-비영리-변경금지 2.0 대한민국 라이선스에 따라 이용할 수 있습니다.

댓글

댓글

댓글 0