AI, 기술 혁신을 넘어 개인정보 신뢰의 시험대에 서다
최근 몇 년간 우리의 일상에서 인공지능(AI)의 존재감은 더 이상 부정할 수 없을 정도로 커지고 있습니다. 스마트폰 속 비서, 온라인 쇼핑 추천 알고리즘, 그리고 의료 진단 지원까지 이어지는 AI 기술의 발전은 분명 우리의 삶을 편리하게 만들어주었습니다. 하지만 이와 같은 기술적 진보 뒤에는 우리의 개인 정보가 얼마나 안전한지에 대한 끊임없는 의문이 자리 잡고 있습니다.
많은 사람들이 AI 기술이 우리에게 제공하는 가능성에 고개를 끄덕이는 동시에, '내 데이터는 안전할까?'라는 질문으로 머리를 갸웃거리기 시작했습니다. Malwarebytes가 최근 발표한 설문조사 결과는 이러한 의문과 우려를 수치로 증명하며, 개인 정보 보호에 대한 사회적 관심이 얼마나 큰 문제로 자리 잡았는지를 다시 한번 확인시켜 주었습니다.
설문에 따르면, 응답자의 90%는 AI가 데이터를 동의 없이 활용하는 데 깊은 우려를 표했습니다. 심지어 91%는 기업의 개인 데이터 관리에 대한 국가 차원의 법적 규제를 요청하는 목소리를 높이고 있습니다.
광고
AI 기술이 날로 정교해지고 있는 반면, 정작 이를 사용하는 사람들의 신뢰는 쌓이지 않았습니다. 이와 같은 소비자의 불신이 단순한 걱정에 그치지 않고 실제 행동의 변화로 이어지고 있다는 점은 특히 주목할 필요가 있습니다. 더욱 주목할 만한 사실은 이러한 우려가 시간이 지나면서 더욱 심화되고 있다는 점입니다.
설문조사에 따르면, 기업의 부적절한 개인 데이터 사용에 대한 우려는 2025년 89%에서 2026년 92%로 증가했습니다. 이는 단순한 정체 상태가 아니라 불신이 점점 더 깊어지고 있음을 의미합니다.
또한 정부의 부적절한 데이터 접근 및 사용에 대한 우려도 2025년 72%에서 2026년 74%로 소폭 상승했습니다. 기업뿐만 아니라 정부의 데이터 관리에 대한 신뢰도 역시 개선되지 않고 있는 것입니다. 이는 기술적 문제가 기업과 정부 모두의 규제 정책과 집행력에 영향을 미치고 있는 복합적인 문제임을 보여줍니다.
설문 조사에 응답한 소비자의 88%는 ChatGPT나 Gemini와 같은 AI 도구에 개인 정보를 자유롭게 공유하지 않는다고 답했으며, 43%는 ChatGPT 사용을, 42%는 Gemini 사용을 사실상 중단했다고 밝혔습니다.
광고
특히 민감한 정보에 대한 경계심은 더욱 뚜렷합니다. 응답자의 84%는 개인 건강 정보를 AI 도구와 공유한 적이 없다고 답했는데, 이는 건강이라는 극히 사적이고 중요한 영역에서 AI에 대한 신뢰가 거의 형성되지 않았음을 보여줍니다. AI 도구 자체에 대한 의존도가 높아지는 가운데도, 개인정보 보호 문제로 인해 일부 소비자들은 이를 적극적으로 멀리하는 모습을 보이고 있는 것입니다.
소비자 불신의 근거: 그들은 왜 걱정하는가
이는 단순히 개인적인 행동 변화에서 그치지 않고 새로운 사회적 추세로 이어지고 있습니다. 개인 정보 보호를 위한 디지털 도구의 수요가 2025년부터 2026년 사이 전반적으로 상승했습니다. VPN(가상 사설망) 사용은 2025년 42%에서 2026년 46%로 증가했으며, 광고 차단기 설치는 69%에서 71%로 늘어났습니다.
또한 다단계 인증(MFA) 사용은 69%에서 76%로 크게 증가했고, 데이터 수집 거부는 75%에서 82%로, 가짜 또는 가상 데이터 사용은 33%에서 38%로 각각 증가했습니다.
광고
이러한 수치들은 소비자들이 자신의 프라이버시를 보호하기 위해 다양한 기술적 수단을 적극적으로 활용하고 있음을 명확히 보여줍니다. 하지만 이러한 개인의 대응은 어쩌면 한계가 있을 수밖에 없습니다.
소비자가 애써 자신의 데이터를 보호하려고 노력한다 하더라도, 기업과 정부 차원의 제도적 개선과 감시가 뒤따르지 않는다면 그 효과는 제한적일 수밖에 없습니다. 실제로 EU는 AI 법(AI Act)을 2024년에 최종 통과시키면서 AI 기술의 투명성과 설명 가능성을 강화하려는 노력을 기울이고 있습니다. 이 법은 기업들이 AI 기술을 출시하기 전에 데이터 보안을 충분히 검토하고 책임감을 갖도록 강제하는 내용을 포함하고 있습니다.
그러나 AI 기술이 급속도로 진화하는 현실에서 이러한 법적 틀만으로는 소비자의 불안을 완전히 종식시키기 어렵다는 평가도 나옵니다. 전문가들은 기존 프라이버시 프레임워크가 AI 기술 발전 속도를 따라가지 못하고 있다고 지적합니다.
광고
Malwarebytes 조사 결과, 기업들이 AI 기술을 시장에 빠르게 도입하면서 보안 검증을 충분히 하지 않는 경우가 많다는 점이 밝혀졌습니다. 이는 단순히 기술 혁신의 속도를 자랑하는 것이 아니라, 그 뒤에 감춰진 리스크를 소비자들에게 떠넘기는 결과로 이어질 수 있습니다. 전문가들은 기업들이 AI 기능을 서둘러 출시하면서 보안 검증이 충분하지 않은 경우가 많다고 경고하며, 소비자의 불신을 해소하기 위한 기업의 책임감 있는 태도와 정책적 노력이 시급함을 강조합니다.
더욱이 정부 차원의 데이터 접근 및 사용에 대해서도 2026년 기준 74%의 사람들이 우려를 표명했다는 점은 주목할 만합니다. 물론 AI 기술과 데이터 활용의 긍정적인 면이 분명히 존재합니다.
개인의 선택과 기호를 고려하는 맞춤형 서비스, 더 나은 의료 및 공공서비스의 제공, 그리고 효율적인 사회적 자원의 활용은 AI가 가져올 수 있는 대표적인 장점들입니다.
광고
이를 고려할 때, AI와 개인정보 활용을 둘러싼 논의는 단순히 기술을 사용할 것인가 말 것인가의 이분법적 논쟁에 머무를 수 없습니다. 중요한 것은 소비자와 기업 간의 신뢰를 형성하고, 기술 그 자체가 그 신뢰를 위반하지 않도록 만드는 것입니다.
신뢰 회복과 규제의 필요성, 기업과 정부의 책임은 무엇인가
이 시점에서 일부는 이렇게 반문할 수 있습니다. "AI 발전 속에서 불가피한 데이터 활용이 아닌가?" 기술적으로 우리가 누리는 혜택의 기저에는 데이터의 분석과 활용이 필연적으로 존재합니다.
그러나 문제는 데이터 활용의 과정이 얼마나 투명하고, 사용자에게 선택권을 제공하며, 그 데이터가 안전하게 관리되는지를 보장하는 기틀이 갖춰졌느냐 하는 것입니다. 소비자의 불신은 단지 AI 기술에 대한 무지에서 비롯된 것이 아니라, 과거의 사례들과 기업 및 정부의 불투명한 처리 방식에서 비롯된 명백한 경험에 기초하고 있다는 점을 간과하지 말아야 합니다. 2025년부터 2026년 사이 개인정보 보호 도구 사용의 전반적인 증가 추세는 소비자들이 수동적인 우려에 머무르지 않고 적극적으로 자신의 데이터를 지키기 위해 행동하고 있음을 보여줍니다.
VPN, 광고 차단기, 다단계 인증, 데이터 수집 거부, 가짜 데이터 사용 등 다양한 방어 수단의 채택률이 모두 상승했다는 것은 개인정보 보호에 대한 광범위한 대중의 인식과 실질적인 대응 노력을 반영합니다. 이는 AI 시대에 개인정보 보호가 단순한 윤리적 담론이 아니라 실생활에서 직접 실천되는 행동 원칙으로 자리 잡고 있음을 의미합니다.
결론적으로 AI 시대는 더 나은 미래를 제공할 가능성과 동시에 새로운 윤리적, 사회적 문제를 우리 앞에 던져주고 있습니다. AI 기술의 발전을 멈출 수는 없지만, 그로 인해 비용을 지불하게 되는 개인 정보 보호의 문제는 우리가 반드시 대비해야 할 숙제임이 분명합니다. 그렇다면 우리는 다음과 같은 질문에 답해야 합니다.
기술 발전과 개인 정보 보호는 정말로 양립할 수 없는 상반된 가치일까요? 아니면 제대로 된 규제와 혁신적 접근을 통해 '신뢰받는 AI'라는 새로운 모델을 실현할 방법을 모색할 수 있을까요? 이는 AI 기술이 전 세계적으로 확산되고 있는 2026년 현재, 우리가 풀어야 할 과제입니다.
소비자의 불신이 2025년 대비 2026년에 더욱 심화되고 있다는 사실은 이 문제의 시급성을 더욱 강조합니다.
김도현 기자
광고
[참고자료]
vertexaisearch.cloud.google.com










