AI 기술은 새로운 치안 전략으로 모색되고 있으나 기술의 특성상 개인정보 침해, 편향성 문제 등에 대한 우려가 제기되고 있다. 특히 실시간 안면 인식 및 객체 인식 기술이 효율적인 치안 도구로 활용되기 위해서는 AI CCTV 사용에 대한 시민의 공감과 지지가 필요하다. 경찰활동에 대한 시민의 신뢰와 협조를 구축하는 매커니즘에서 경찰정당성과 절차적 정의는 중요한 시사점을 준다. 치안분야 AI CCTV 활용이라는 경찰전략에 대해 시민들의 수용의사에 경찰정당성 인식이 어떤 역할을 하는지 살펴보는 것은 매우 의미가 있다. 이 연구는 Tyler의 절차적 정의 이론을 바탕으로, 경찰의 정당성에 대한 인식이 AI CCTV에 대한 수용 및 개인정보 제공 의사에 미치는 영향을 검토하고자 하였다. 이를 위하여 일반시민 1,101명을 대상으로 설문조사를 수행하였다. 분석결과, Tyler의 주장대로 절차적 공정성이 핵심 변수로 확인되었다. 절차적 공정성은 순응의무와 경찰신뢰를 각각 매개하고, 개인정보제공의사를 이중매개하여 AI CCTV 수용의사에 정(+)적 간접효과를 미치는 것으로 확인되었다. 또, 경찰효과성은 경찰신뢰와 개인정보제공의사를 이중매개하여 AI CCTV 수용의사에 긍정적인 간접효과를 미치고 있었다. 한편, 분배적 공정성은 시민의 협조에 유의미한 영향을 주지 않았고, 기술수용에도 부(-)적 영향을 미치고 있는 것으로 나타났다. 이러한 결과는 경찰에 대한 부정적 평가를 극복하기 위한 대안으로써 기술수용의사로 표현되었을 가능성이 있다. 이러한 연구 결과는 경찰이 AI CCTV를 활용한 치안 전략을 수립하는 데 있어 사회적 합의 도출을 위한 구체적인 접근 방안을 마련하는 데 중요한 시사점을 제공할 수 있을 것이다. 또한 증거기반 치안정책 결정 과정에서 유용한 증거로 활용되기를 기대한다.
AI technology is increasingly being explored as a strategic tool for enhancing security. However, concerns surrounding privacy infringement and inherent biases in such technologies have raised significant challenges to their widespread acceptance. Real-time facial recognition and object recognition systems, in particular, necessitate public empathy and support to function effectively. Police legitimacy and procedural justice have emerged as critical mechanisms for fostering public trust and cooperation in law enforcement activities. Understanding the role of police legitimacy in shaping public acceptance of AI-driven strategies like AI CCTV is crucial in the context of public security. This study, grounded in Tyler's procedural justice theory, sought to examine the influence of perceptions of police legitimacy on citizens' willingness to accept AI CCTV and their readiness to share personal information. A survey of 1,101 general citizens was conducted to explore these dynamics. The findings confirmed procedural fairness as a key factor, as argued by Tyler. Procedural fairness positively influenced the acceptance of AI CCTV through its indirect effects on compliance obligations, trust in the police, and a willingness to provide personal information. Furthermore, police effectiveness was shown to have a positive indirect impact on AI CCTV acceptance, mediated through trust in the police and willingness to share information. In contrast, distributive fairness did not significantly affect citizen cooperation and was found to negatively influence the acceptance of AI technology. This negative association may reflect a tendency to view technological solutions as alternatives to address perceived shortcomings in police performance. These findings underscore the importance of procedural justice in shaping public attitudes toward AI-based security measures. The research offers meaningful insights for law enforcement agencies in formulating effective security strategies that incorporate AI CCTV. It also provides a foundation for developing targeted approaches to achieve public consensus and support. Policymakers can utilize these results as evidence to guide the creation of security policies that balance technological innovation with public trust, ensuring the legitimacy and fairness of AI-driven solutions in public security contexts.
Ⅰ. 서 론
Ⅱ. 이론적 배경
Ⅲ. 연구방법
Ⅳ. 분석결과
Ⅴ. 결론 및 정책적 제언