AI기본법이 본격 시행되면서 국내 인공지능 AI 산업의 제도적 틀이 마련됐지만 중소기업과 스타트업의 고민은 깊어진다. 인력과 자원이 제한적인 스타트업이 규제 대응 부담을 감당할 수 있을지에 대한 우려다.
AI기본법은 AI 모델을 개발하고 이를 기반으로 서비스를 직접 제공하는 기업과 사업자를 주요 규제 대상으로 삼는다. 생성형 AI 확산에 따른 사회적 위험을 최소화하고 책임성과 투명성을 확보하겠다는 취지다. 이에 따라 해당 기업들은 AI 생성물에 워터마크를 부착하는 것을 골자로 한 AI 투명성 확보 의무를 부담하게 된다.
AI 서비스를 단순히 업무나 창작 도구로 활용하는 소비자는 규제 대상에서 제외된다. 오픈AI 구글 네이버처럼 AI 모델을 직접 개발하면서 서비스를 제공하는 기업은 적용 대상이지만 챗GPT 이용자나 유튜브 시청자 등은 해당하지 않는다.
특히 해외 기업에 생성물을 제공하는 스타트업의 경우 워터마크 적용 범위를 두고 혼선이 크다. 중간 생산물 단계에서도 워터마크를 부착해야 하는지 최종 결과물에만 적용하면 되는지에 대한 명확한 기준이 제시되지 않았기 때문이다. 글로벌 기업들이 워터마크가 삽입된 결과물을 선호하지 않을 경우 국내 스타트업 경쟁력이 약화될 수 있다는 우려도 나온다.
시간 싸움이 치열한 생성형 인공지능 시장에서 이러한 규제 대응을 위해 추가 자원을 투입하는 것도 부담이다. 스타트업 입장에서는 기술 개발과 서비스 고도화에 집중해야 할 시점에 법적 리스크 관리까지 병행해야 하는 상황에 놓였다.
인공지능 스타트업에 재직하는 A씨는 "가장 경쟁이 치열한 분야가 생성형 인공지능 시장인데 사람도 적고 돈도 없는 우리 입장에서는 AI기본법에 대응할 여력이 여의치 않다"며 "해외 사업자가 워터마크가 찍힌 우리 제품을 선호할지 걱정된다"고 말했다.
관건은 고영향 AI 분류 기준이다. AI기본법은 생명 신체 기본권에 중대한 영향을 미칠 우려가 있는 영역에 활용되는 AI를 고영향 AI로 규정하고 이에 대해 안전성 투명성 위험관리 의무를 부과한다. 보건의료 범죄 수사 채용 대출 등 주요 분야는 물론 그 밖에 대통령령으로 정하는 영역까지 포함되면서 기준이 지나치게 포괄적이라는 지적이 잇따른다.
우선적 고려라는 표현의 불명확성도 현장을 흔든다. 국가기관이 고영향 AI를 도입할 경우 안전성 신뢰성 검증이나 영향평가를 받은 제품을 우선적으로 고려하도록 규정했지만 이를 어떻게 반영해야 하는지에 대한 구체적인 기준은 없다. 입찰 요건인지 평가 가점인지 감사 기준인지조차 분명하지 않아 발주 담당자의 해석과 역량에 따라 판단이 상이하다.
안전성 확보 의무 역시 스타트업에는 만만치 않다. AI 생명주기 전반에 걸쳐 위험을 식별 평가하고 위험관리 체계를 구축해야 하며 관련 내용을 모두 문서화해야 한다. 중소 벤처 기업이 다수를 차지하는 국내 AI 생태계 현실과는 괴리가 크다는 지적이 나온다.
상당수 스타트업은 수 많은 변화 속에 불안감을 느끼며 사업을 이어가고 있다. 또 다른 인공지능 스타트업에서 일하는 B씨는 "고영향 AI로 분류될 가능성이 있는 서비스가 될 수 있다는 생각을 한다"며 "준비해야 하는 부분도 많은데 법 시행 초기라서 더욱 신경이 많이 쓰인다"고 전했다.
이 같은 혼란은 수치로도 확인된다. 스타트업얼라이언스에 따르면 작년 말 국내 AI 스타트업 101곳을 조사했더니 98%의 응답자가 AI기본법에 대한 실질적인 대응 체계가 부재하다고 했다. 내용을 잘 모르고 준비도 안 돼 있다거나 법은 인지하지만 대응은 미흡하다는 응답이 각각 48.5%를 기록했지만 제대로 준비 중이라고 답한 기업은 2% 남짓이었다.
AI기본법이 기술 발전과 사회적 신뢰를 동시에 확보하기 위한 제도라는 점에는 공감대가 형성돼 있다. 기준의 불명확성과 과도한 부담이 중소기업과 스타트업의 혁신을 위축시킬 수 있다는 우려 역시 커지고 있다. 제도의 실효성을 높이기 위해서는 현장 목소리를 반영한 세부 기준과 단계적 적용 방안이 필요해 보인다.