본문 바로가기
기술 정보

인공지능의 기원과 유형 및 사례, 사용 위험성

by ㅣTRENDPARKㅣ 2023. 5. 7.

인간의 사고 및 의사 결정 프로세스를 모방하는 것과 관련된 컴퓨터 과학의 특정 분야입니다. 이러한 프로그램은 종종 데이터를 분석하고 사람의 도움 없이 자체 성능을 개선하여 자체 알고리즘을 수정할 수 있습니다. 오늘은 이러한 인공지능의 기원과 유형 및 사례부터 사용 위험성까지 알아보도록 하겠습니다.

 

인공지능의 기원

인공 지능 분야에서 최초로 이루어진 실질적인 작업은 20세기 중반 영국의 논리학자이자 컴퓨터 개척자인 Alan Mathison Turing에 의해 이루어졌습니다. 1935년 튜링은 무한한 메모리와 앞뒤로 움직이는 스캐너로 구성된 추상 컴퓨팅 기계를 설명했습니다. 스캐너의 동작은 기호의 형태로 메모리에 저장되는 명령 프로그램에 의해 지시됩니다. 이것은 튜링이 설명한 내장 프로그램 개념이며, 여기에는 기계가 작동할 가능성이 내포되어 있어 자체 프로그램을 수정하거나 개선할 수 있습니다. 튜링의 개념은 이제 단순히 보편적인 개념으로 알려져 있습니다. 모든 현대 컴퓨터는 튜링 기계가 보편적입니다. 제2차 세계대전 동안 튜링은 영국 Buckinghamshire의 Bletchley Park에 있는 Government Code and Cypher School의 주요 암호 분석가이기도 했습니다. 튜링은 1945년 유럽에서 적대 행위가 중단될 때까지 저장된 프로그램 전자 컴퓨팅 기계를 구축하는 프로젝트로 전환할 수 없었습니다. 그럼에도 불구하고 전쟁 중에 튜링은 기계 지능 문제에 대해 상당한 생각을 했습니다. Bletchley Park에 있는 튜링의 동료 중 한 명인 Donald Michie은 나중에 튜링이 컴퓨터가 경험에서 학습하고 컴퓨터를 사용하여 새로운 문제를 해결할 수 있는 방법에 대해 자주 논의했습니다. 튜링은 "우리가 원하는 것은 경험을 통해 배울 수 있는 기계"이며 "기계가 자체 명령을 변경하도록 할 수 있는 가능성은 메커니즘을 제공한다."라고 말했습니다.

 

유형 및 사례

인공지능의 첫 번째 유형은 제한된 메모리입니다. 이 알고리즘은 우리 뇌의 뉴런이 함께 작동하는 방식을 모방합니다. 즉, 훈련할 데이터를 더 많이 받을수록 더 똑똑해집니다. 딥 러닝은 이미지 인식 및 기타 유형의 강화 학습을 향상합니다. 제한된 메모리는 반응형 기계와 달리 과거를 들여다보고 시간이 지남에 따라 특정 개체나 상황을 모니터링할 수 있습니다. 그런 다음 이러한 관찰은 인공지능에 프로그래밍되어 과거 및 현재 순간 데이터를 기반으로 작업을 수행할 수 있습니다. 그러나 제한된 메모리에서 이 데이터는 인간이 성공과 실패에서 의미를 도출할 수 있는 방식으로 학습할 경험으로 인공지능의 메모리에 저장되지 않습니다. 인공지능은 더 많은 데이터에 대해 훈련됨에 따라 시간이 지남에 따라 향상됩니다. 제한된 메모리 인공지능의 좋은 예는 자율주행차가 도로에서 다른 차량의 속도, 방향 및 근접성을 관찰하는 방식입니다. 이 정보는 도로의 신호등, 표지판, 곡선 및 범프를 아는 것과 같이 자동차가 세계를 표현하도록 프로그래밍됩니다. 이 데이터는 차량이 차선을 변경할 시기를 결정하여 다른 운전자와 부딪히거나 차단되지 않도록 하는 데 도움이 됩니다. 또 다른 인공지능 유형은 반응형이라는 것입니다. 예를 들어, 넷플릭스를 이용하는 고객의 전체 기록을 처리하고 맞춤형 권장 사항을 피드백할 수 없기 때문에 "슈퍼" 인공지능을 수행합니다. 반응형 인공지능은 대부분 신뢰할 수 있고 자율주행차와 같은 발명품에서 잘 작동합니다. 적절한 정보가 제공되지 않으면 미래 결과를 예측할 수 없습니다. 우리가 반응해야 할 모든 정보가 없기 때문에 대부분의 행동이 반응적이지 않지만 기억하고 배울 수 있는 능력이 있는 인간의 삶과 비교해 보십시오. 이러한 성공 또는 실패를 기반으로 향후 유사한 상황에 직면할 경우 다르게 행동할 수 있습니다. 반응형 인공지능의 또 다른 예는 IBM의 체스 게임 인공지능 시스템인 Deep Blue가 1990년대 후반에 Garry Kasparov를 이겼을 때입니다. Deep Blue는 예측을 위해 체스판에서 자신과 상대방의 말을 식별할 수 있지만 미래의 결정을 알리기 위해 과거의 실수를 사용할 수 있는 메모리 용량이 없습니다. 두 플레이어 모두에게 다음 동작이 무엇인지에 따라 예측하고 최상의 동작을 선택합니다.

 

사용 위험성

오늘날 우리 삶에는 인공지능과 관련된 수많은 위험이 있습니다. 모든 인공지능 위험이 킬러 로봇이나 지각 인공지능만큼 크고 걱정스러운 것은 아닙니다. 오늘날 가장 큰 위험에는 소비자 프라이버시, 편향된 프로그래밍, 인간에 대한 위험, 불분명한 법적 규제 등이 있습니다. 전문가들이 언급하는 가장 큰 우려 사항 중 하나는 소비자 데이터 프라이버시, 보안 및 인공지능에 관한 것입니다. 미국인은 1992년 시민적 및 정치적 권리에 관한 국제 규약의 비준과 함께 제정된 프라이버시에 대한 권리가 있습니다. 그러나 많은 기업들이 이미 수집 및 사용 관행을 통해 데이터 개인 정보 보호 위반을 회피하고 있으며 전문가들은 더 많은 인공지능을 활용하기 시작하면서 이 문제가 증가할 수 있다고 우려합니다. 또 다른 주요 관심사는 현재 국가 또는 국제 수준에서 인공지능에 대한 규제가 거의 없다는 것입니다. EU는 위험으로 간주되는 인공지능 시스템을 규제하기 위해 2021년 4월 "인공지능 법"을 도입했습니다. 그러나 이는 아직 통과되지 않았습니다. 신체적 안전 문제가 있기 때문입니다. 2018년에는 승차 공유 회사인 우버가 사용하는 자율주행차가 운전 사고로 보행자를 치어 사망했습니다. 이 사건에서 법원은 자율주행차의 운전자가 주변에 주의를 기울이지 않고 휴대폰으로 쇼를 보고 있었기 때문에 과실이 있다고 판결했습니다. 그 시나리오 외에도 인간에게 신체적 피해를 줄 수 있는 다른 예가 있습니다. 기업이 다른 점검 없이 유지보수가 수행되는 시점에 대해 인공지능 예측에 너무 의존하면 기계 오작동으로 이어져 작업자가 다칠 수 있습니다. 한편, 의료에 사용되는 모델은 오진을 유발할 수 있습니다. 마지막으로 위에서 논의한 모든 위험과 관련된 법적 책임의 문제입니다. 앞서 보행자를 사망에 이르게 한 자율주행차에 대해 이야기했는데, 운전자의 잘못이 발견되었습니다. 인공지능의 용도에 따라 문제가 발생하면 이에 따라 법적 책임도 달라지게 됩니다.