상단 본문

사회복지기관을 위한 AI 활용 규정 #1

  • AI
  • 챗GPT
  • 윤리
  • 인공지능
  • 조성우



최근 일부 기관들이 AI 활용의 가이드라인이나 규정 등을 만들고 싶어 한다.

이에 이전 글을 참고하며 규정 초안을 제시한다. 기관의 관리자는 이 내용을 기초로  자신의 여건에 맞게 수정해서 사용하기를 권장한다.



사회복지기관의 AI 활용 규정


목적

사회복지기관의 AI 활용 규정은 AI 기술의 도입과 활용 과정에서 준수해야 할 핵심 원칙과 기준을 제시한다. 이는 AI를 사회복지 실천가의 전문적 판단을 위한 보조 도구로 활용하면서 클라이언트의 권리를 보장하고, 개인정보를 보호하며, 전문가의 책임성을 강화하는 것을 목적으로 한다. 또한 전문성 개발을 통한 역량 강화, 서비스 품질의 지속적 관리, 다양한 이해관계자들과의 협력 등을 통해 사회복지 실천의 혁신과 발전을 도모한다. 이를 통해 궁극적으로는 클라이언트에 대한 서비스 질 향상이라는 사회복지의 본질적 가치를 실현하고자 한다.

 

기대효과

- 사회복지기관의 책임감 있는 AI 활용

- 클라이언트 권리 보호와 서비스 품질 향상

- 사회복지사의 AI 활용 역량 강화

- 기관의 AI 리스크 관리 체계 구축

    - AI를 활용한 사회복지 실천의 혁신과 발전


    규정

     

    1. AI 활용 목적과 원칙

    사회복지기관의 종사자는 AI를 업무 보조 도구로 활용하여 서비스 품질과 업무 효율성을 향상시킬 수 있다. AI는 전문가의 판단을 대체하는 것이 아니라, 더 나은 의사결정을 지원하는 도구로 활용되어야 한다. AI 활용의 궁극적 목적은 클라이언트에 대한 서비스 향상에 있음을 항상 유념해야 한다.

     

    2. 클라이언트 권리 보장

    클라이언트는 AI 활용 여부를 선택할 권리가 있다. AI를 활용할 경우 클라이언트에게 충분한 설명을 제공하고 동의를 구해야 한다. 클라이언트는 언제든 AI 활용 동의를 철회할 수 있으며, 이 경우 기존 서비스로 전환할 수 있다. AI 활용 과정에서 생성된 정보에 대해 클라이언트는 열람과 수정을 요청할 수 있다.

     

    3. 개인정보 보호

    클라이언트의 개인정보는 최소한으로 수집하고 안전하게 보관해야 한다. 가능한 한 로컬 AI 시스템을 활용하며, 클라우드 기반 AI 사용 시에는 정보 익명화 처리를 한다. 수집된 정보는 목적 외로 사용할 수 없으며, AI 학습 데이터로 활용하기 위해서는 별도의 동의를 받아야 한다.

     

    4. 전문가 책임성

    기관의 종사자가 AI를 사용할 경우, 자신의 AI 활용에 대한 전문적 책임을 진다. AI가 제시하는 결과를 비판적으로 검토하고, 전문가로서 최종 판단을 해야 한다. AI 활용 과정에서 발생하는 오류나 편향성에 주의를 기울이며, 문제 발생 시 적절한 조치를 취해야 한다.

     

    5. 전문성 개발

    기관의 종사자는 AI를 효과적으로 활용하기 위한 역량을 개발해야 한다. AI의 장단점을 이해하고, 적절한 활용 방법을 습득해야 한다. 동료들과 AI 활용 경험을 공유하고, 지속적인 학습을 통해 전문성을 향상시켜야 한다.

     

    6. 서비스 품질 관리

    AI 활용이 서비스 품질에 미치는 영향을 정기적으로 평가해야 한다. 클라이언트의 피드백을 수집하고 분석하여 서비스 개선에 반영한다. AI 시스템의 성능과 안정성을 모니터링하고, 필요한 경우 시스템 업데이트나 대체 방안을 마련한다.

     

    7. 협력과 소통

    기관 내외의 다양한 주체들과 협력하여 AI를 효과적으로 활용한다. 외부 전문가의 자문을 구하고, 타 기관과 경험을 공유한다. AI 서비스 제공업체와 긴밀히 소통하여 시스템의 안정적 운영과 개선을 추구한다.


    (계속)


    ※ 이 저작물은 크리에이티브 커먼즈 저작자표시-비영리-변경금지 2.0 대한민국 라이선스에 따라 이용할 수 있습니다.

    댓글

    댓글

    댓글 0