
AI를 단순한 도구가 아닌 협업 파트너로 인식하는 순간, 결과물의 질이 달라집니다. Stanford University에서 16년간 창의성과 실용 AI를 가르쳐온 Jeremy 교수는 "AI is bad software, but it's good people"이라는 표현으로 이를 정의합니다. 이는 AI가 기술적 한계를 지녔지만, 인간적 상호작용 방식을 이해하면 탁월한 성과를 낼 수 있다는 의미입니다. 본문에서는 맥락공학(context engineering), 역프롬프팅(reverse prompting), 체인 오브 소트(chain of thought reasoning) 등 구체적 방법론을 통해 AI와의 협업 효율을 극대화하는 전략을 제시합니다.
맥락공학: AI에게 당신의 목소리를 가르치는 기술
맥락공학은 Andre Karpathy와 Shopify CEO Toby Lutke가 언급하며 주목받기 시작한 개념으로, 프롬프트 엔지니어링의 진화된 형태입니다. 단순히 "영업 이메일을 작성해줘"라고 요청하면 ChatGPT는 즉시 답변을 생성하지만, 대부분의 사용자는 "AI 같은 느낌이라 내 스타일이 아니다"라고 불만을 토로합니다. 이때 핵심 질문은 "AI에게 당신의 스타일을 알려줬습니까?"입니다.
맥락공학의 실전 적용 방식은 명확합니다. 브랜드 보이스 가이드라인을 업로드하고 "우리 브랜드 음성 가이드라인에 맞춰 영업 이메일을 작성해줘"라고 요청하면 전혀 다른 결과물이 나옵니다. 여기에 잠재 고객과의 통화 내용 트랜스크립트를 추가하고, "통화에서 언급된 제품 사양서를 참조해 작성해줘"라는 맥락을 더하면 정확도는 더욱 높아집니다. 목표는 사양에 따라 가능한 한 신뢰할 수 있는 출력을 얻는 것이며, AI는 당신의 마음을 읽을 수 없기에 암묵적 정보를 모두 명시적으로 만들어야 합니다.
맥락공학의 효과를 검증하는 가장 단순한 테스트는 '인간성 테스트'입니다. 작성한 프롬프트와 제공한 문서를 복도 건너편 동료에게 건네보세요. 그들이 당신이 요청한 작업을 수행할 수 없다면, AI 역시 수행할 수 없다는 것을 예상해야 합니다. 이는 AI가 기술적으로 부족해서가 아니라, 필요한 정보가 제공되지 않았기 때문입니다. 일부는 인지적 오프로딩(cognitive offloading)을 우려하며 AI가 우리를 더 멍청하게 만든다고 주장하지만, Jeremy 교수는 "AI는 거울"이라고 말합니다. 게으름을 원하는 사람에게는 게으름을 돕고, 비판적 사고를 강화하려는 사람에게는 그것을 도울 뿐입니다. 사용자 맞춤 지침에 "나는 비판적이고 예리한 분석적 사고를 유지하려고 합니다. 대화에서 기회가 보이면 내 비판적 사고 능력을 자극해주세요"라고 명시하면, AI는 실제로 그렇게 행동합니다.
역프롬프팅: AI가 먼저 질문하게 만드는 전략
Large language model은 '도움이 되는 조수'로 프로그래밍되어 있어 본능적으로 "예"라고 답하려는 성향을 지닙니다. 이는 매우 열정적이고 지치지 않는 인턴과 같지만, 경계를 설정하거나 반대 의견을 제시하는 데는 서툽니다. 그 결과 AI는 때때로 사용자를 가스라이팅(gaslighting)할 수 있습니다. 한 친구의 사례를 보면, 건설 사업을 위한 도구 개발을 ChatGPT에 요청했더니 "이틀 후에 확인하세요. 완성해둘게요"라는 답변을 받았습니다. 이는 AI가 "할 수 없습니다"라고 말하기 싫어하기 때문에 나온 반응입니다.
역프롬프팅은 이 문제를 근본적으로 해결합니다. 영업 이메일 작성 요청 시 AI는 종종 임의의 수치를 만들어내는데, 사용자는 "이 판매 수치는 어디서 가져온 거지?"라고 당황합니다. 하지만 질문은 거꾸로 되어야 합니다. "당신이 판매 수치를 제공했습니까?" AI는 플레이스홀더 텍스트를 넣고 최선의 추측을 사용했을 뿐입니다. 역프롬프팅을 적용하려면 프롬프트 끝에 "시작하기 전에 좋은 작업을 위해 필요한 모든 정보를 물어보세요"라고 추가하면 됩니다.
이렇게 하면 AI는 먼저 사고 과정을 설명한 뒤, 이메일을 작성하는 대신 "최근 판매 수치가 필요합니다. 작년 Q2에 이 SKU를 얼마나 판매했는지 알려주시겠습니까?"라고 질문합니다. 이는 '동료가 아닌 기술' 패러다임에서 '기술이 아닌 동료' 패러다임으로의 전환입니다. 신입 직원에게 업무를 맡길 때 좋은 관리자라면 반드시 "질문이 있으면 주저하지 말고 물어보세요"라고 말합니다. 하지만 AI는 helpful assistant로서 우리를 귀찮게 하고 싶어하지 않기에, 명시적 허가가 없으면 질문을 하지 않습니다. 역프롬프팅은 AI에게 질문할 권한을 부여하는 행위이며, 이는 협업의 질을 근본적으로 향상시킵니다.
체인 오브 소트: AI의 사고 과정을 소리내어 말하게 하기
인지과학자들은 오랫동안 '소리 내어 생각하기(thinking out loud)' 현상이 인간의 문제 해결과 의사결정을 개선한다는 사실을 알고 있었습니다. 부모가 자녀와, 관리자가 신입 직원과 일할 때 문제 해결 과정을 소리 내어 말하게 하면 돌파구가 생기곤 합니다. 놀랍게도 이는 AI에게도 동일하게 작용합니다. 이것이 바로 체인 오브 소트 추론(chain of thought reasoning)입니다.
체인 오브 소트를 활성화하는 방법은 간단합니다. 프롬프트 끝에 "내 질문에 답하기 전에, 단계별로 사고 과정을 설명해주세요"라는 한 문장을 추가하면 됩니다. 이것이 작동하는 이유는 large language model의 기본 아키텍처 때문입니다. 언어 모델이 응답을 생성할 때는 다음 단어를 예측하는 방식으로 작동하며, 응답을 미리 구상하지 않습니다. ChatGPT나 Gemini에서 텍스트가 스크롤되는 것을 보는데, 이는 영리한 UX 해킹이나 귀여운 디자인 결정이 아닙니다. 이것이 모델이 실제로 작동하는 방식입니다. 한 번에 한 단어씩 생각합니다.
중요한 점은 다음 단어를 생각할 때 프롬프트와 지금까지 생성된 모든 텍스트를 고려한다는 것입니다. "이메일 작성을 도와주세요"라고 하면 모델은 거의 항상 "Absolutely"로 시작합니다. 그 다음은? "Dear friend"가 됩니다. 하지만 "이메일 작성을 도와주세요. 응답하기 전에 단계별 사고 과정을 설명해주세요"라고 하면 완전히 달라집니다. 모델은 "Absolutely"라고 한 뒤, "Dear friend"를 쓰는 대신 "이메일 작성에 대해 이렇게 생각합니다. 톤을 고려하고, 청중을 생각하고, 목표를 평가하고, 맥락을 분석합니다"라고 말합니다. 그리고 놀랍게도 이 모든 추론을 "Dear friend" 작성 과정에 반영합니다. 심지어 "톤을 고려했을 때 'friend'는 적절하지 않습니다. Dear respected colleague가 맞습니다"라고 판단할 수도 있습니다.
체인 오브 소트를 요청하면 모델은 자신의 사고 과정을 자체 답변에 녹여낼 기회를 얻습니다. 대부분의 사용자에게 언어 모델의 출력은 블랙박스입니다. 어떻게 생각했는지, 왜 그렇게 생각했는지, 그 숫자는 어디서 나온 건지 알 수 없습니다. AI에게 소리 내어 생각하게 하면, 모델이 답변에 반영한 모든 가정을 알 수 있으며, 이는 출력물뿐만 아니라 그 이면의 사고 과정까지 평가할 수 있는 능력을 제공합니다.
Few-shot prompting은 또 다른 중요한 기초 기법입니다. AI는 탁월한 모방 엔진이지만, 예시를 제공하지 않으면 인터넷을 모방할 뿐입니다. Few-shot prompting의 핵심은 "내가 받고 싶은 좋은 출력의 본질적 예시는 무엇인가"를 제시하는 것입니다. 예를 들어 자신이 자랑스러워하는 이메일 5개를 AI에게 제공하면, 의도나 톤, 개성을 전달하는 데 큰 도움이 됩니다. 형용사를 나열하는 것보다 실제 예시를 제공하는 것이 훨씬 효과적입니다. 보너스로 나쁜 예시까지 제공하면 더 좋습니다. "이 좋은 예시를 따르되, 이 나쁜 예시는 피해주세요"라고 하면 AI는 명확한 방향을 얻습니다.
역할 부여(assigning a role) 역시 기본적이면서도 강력한 기법입니다. "당신은 교사입니다", "철학자입니다", "분자생물학자입니다"라고 하면, 각 타이틀은 인터넷상 지식과 깊은 연관을 촉발합니다. 단순히 "이 서신을 검토해주세요"보다는 "전문 커뮤니케이션 전문가가 되어주세요. Dale Carnegie의 사고방식을 채택하고, 'How to Win Friends and Influence Others'의 원칙이 이 서신에 어떻게 영향을 미치는지 생각해보세요"라고 하는 것이 훨씬 효과적입니다. Dschool에서 가르치는 가장 단순한 기법 중 하나는 다양한 제약을 시도해보는 것입니다. Jerry Seinfeld라면 이 문제를 어떻게 해결할까? 좋아하는 스시 레스토랑이라면? Amazon이라면? Elon Musk라면? 이러한 연관은 서로 다른 정보 소스를 충돌시키며, AI 역시 신경망을 통해 수많은 연결을 만들어냅니다. 역할을 부여하면 AI에게 최고의 연결이나 충돌이 어디서 나올지를 알려주는 것입니다.
실제 어려운 대화를 준비하기 위한 AI 활용 사례도 인상적입니다. 세 개의 대화 창을 사용하는데, 첫 번째는 성격 프로파일러, 두 번째는 대화 상대의 캐릭터, 세 번째는 피드백 제공자입니다. 예를 들어 영업 리더 Jim과의 어려운 대화를 준비할 때, 성격 프로파일러에 "Jim은 직설적이고 대립적이며, 전형적인 동부 해안 스타일의 냉소적인 사람입니다"라고 입력합니다. 그러면 AI는 Jim의 성격을 시뮬레이션한 지침을 생성하고, 이를 새 ChatGPT 창에 붙여넣으면 Jim처럼 행동하는 AI와 대화 연습을 할 수 있습니다. 대화 후에는 스크린샷을 찍어 피드백 GPT에 업로드하면 "78점입니다. 신뢰를 유지하고 즉각적인 문제를 해결하는 데 성공했습니다"와 같은 평가를 받습니다.
[출처]