콘텐츠로 건너뛰기
  • Zoterope multi-clip editor 조트로프 다중 클립 편집기

    자유게시판 free
    1
    0 투표
    1 게시물
    6 조회수
    A
    원본: 자유게시판 작성자: 최고관리자 날짜: 2025-07-21 01:28:37 조트로프 다중 클립 편집기로 영상도 만들고 종이공작으로 회전하면 애니메이션이 되는 에디터를 만들었습니다. I created an editor that can create videos using the Zoterope multi-clip editor and animates them by rotating them using papercraft. https://www.youtube.com/watch?v=nELXeTysJnk
  • 0 투표
    1 게시물
    0 조회수
    A
    원본: 자유게시판 작성자: 최고관리자 날짜: 2025-07-21 01:28:01 본 문서는 제공된 자료들을 바탕으로, 대규모 언어 모델(LLM)인 Ollama와 Gemma를 활용하여 뉴스 기사 등 텍스트 데이터를 다양한 프레임워크(특히 Fishbone Diagram)로 시각화하고 편집할 수 있는 도구 개발에 대한 핵심 내용을 요약합니다. 주요 목표 및 아이디어: LLM을 활용한 자동 시각화: Ollama (Gemma 3.4b LLM 사용)를 이용하여 뉴스 기사 등의 텍스트 데이터를 입력하면, Fishbone Diagram과 같은 다양한 다이어그램 형태로 자동으로 분석하고 시각화하는 것을 목표로 합니다. 소스 1: "올라마라고 아실 거예요 그래서 뭐 기사를 가지고 이렇게 넣으면네 올라마라는 그 본인 컴퓨터에다가 이제 설치할 수 있는 lm이 있어요 지금 잼마라고 구글에서 만든 걸 지금 사용을 하고 있는데 어 뭐 생각보다는 잘 정리해서 예 문서를 만들어 주거든요 네 그 문서 만들어진 것을 이제 PC본이라고 보시면" 소스 2: "Ollama Gemma3:4b LLM을 사용해서 뉴스기사를 각종 프레임워크로 디자인 편집할 수 있는 기능을 만들었습니다." 편집 및 디자인 기능: 생성된 다이어그램을 화면 상에서 직접 편집하고 디자인할 수 있는 기능을 제공합니다. 이는 인디자인이나 기타 편집 프로그램으로 내보내기 위한 레이아웃 데이터 생성의 목적도 포함합니다. 소스 1: "그래서 어 뭐 지금 PC본을 머리가 위쪽에 있게 만드는 방식으로 구성을 좀 바꿨어요 이게 드래그 앤드랍으로 지금 요렇게 나오는데... 이동을 할 수가 있거든요... 편집 모드도네 간단하게만 만들었는데 요렇게 해서 만들어진 거를 제이손 파일로 내보낼 수도 있고 또 레이아웃을 이렇게 저장해 놓으면 요게 지금 디자인 파일로 예 사용하실 수가 있거든요" 소스 2: "디자인 편집이 화면 상에서 가능합니다. (결론은 인디자인이나 편집프로그램으로 보내기 위한 레이아웃 데이터 생성이 목적입니다.)" 다양한 프레임워크 및 다이어그램 지원: Fishbone Diagram 외에도 만다라트, 4분면 등 다양한 다이어그램 형태를 지원하여, 텍스트 데이터를 여러 방식으로 분석하고 시각화할 수 있도록 합니다. 소스 1: "PC본도 있지만 사실 다이어그램 굉장히 많거든요 그래서 기본적인 다이어그램하고 그다음 거기에 맞는 키워드들을 뽑아내서네 요런 형태에네 뭐 PC번이라든지 아니면은 뭐 4분면이라든지뭐 이런데 다 맞춰 가지고 쓸 수 있게 그래서 요거를 지금 저희가 만다라트도 만들었고 그다음에 PC번도 있지만 사실 이거 외에도" 출력 및 연동 기능 강화: 생성된 결과물을 SVG, JSON 등 다양한 형식으로 내보낼 수 있으며, Canva, Adobe Express 등 상용 디자인 도구와의 연동을 고려하고 있습니다. 소스 2: "인포그래픽이나 어떤 그래픽 작업도 가능하게 기본 출력물을 svg, json, 상용 LLM 및 Canva, AdobeExpress 에 보내서 다시 기계가 그리기 쉽게 바꾸고 있습니다." 소스 1: "요렇게 해서 만들어진 거를 제이손 파일로 내보낼 수도 있고 또 레이아웃을 이렇게 저장해 놓으면 요게 지금 디자인 파일로 예 사용하실 수가 있거든요" 지식 공유 및 위키 기능: 생성된 시각화 결과물을 다른 사용자와 공유하고, 공동으로 수정 및 업데이트할 수 있는 위키와 같은 기능을 구상하고 있습니다. 이는 텍스트 형태의 문서를 다양한 형식으로 구성하는 서비스를 통해 새로운 지식 콘텐츠를 생성하고 공유하는 것을 목표로 합니다. 소스 1: "이걸 지식 체계로 만들어서 생성해서 그 생성한 데이터를 다른 사람들하고 공유할 수 있는 그런 형태의 컨텐츠를 한번 만들어 보려고 지금 하고 있고요 그리고 어 다른 사람들이 또 수정해 주면 업데이트된 내용을 내가 다시 볼 수 있는 위키 같은게 되게 하려고 해요... 이걸 다른 형식으로 구성하는 서비스를 만들고 있어요" 소형 LLM의 활용성: Ollama와 같은 소형 LLM이 본인 컴퓨터에서도 잘 작동하며, 이를 통해 새로운 지식 콘텐츠를 만드는 데 유용하게 활용될 수 있다는 점에 주목합니다. 소스 1: "그 올라마를 사용한 이유는 사실 그 작은 모델은 굉장히 잘 돌아요 본인 컴퓨터에서도 잘 돌릴 수 있고 잘 돌리면 그걸 가지고 할 수 있는 거는 어 새로운 지식 콘텐츠를 만드는게 어 쓸모가 아닐까 생각하고 있거든요" Fishbone Diagram (이시카와 다이어그램) 관련 정보: Fishbone Diagram은 "이시카와 다이어그램", "물고기뼈 다이어그램", "생선뼈 다이어그램"으로도 불립니다. 소스 3: "이시카와 다이어그램 (Ishikawa diagrams), 물고기뼈 다이어그램, 생선뼈 다이어그램 (Fish bone diagram)" 소스 4: "Fishbone Diagram 은.. 이시카와 다이어그램 (Ishikawa diagrams), 생선뼈 다이어그램 (Fish bone diagram)" 일본의 품질 관리 통계학 박사 카오루 이시카와가 발명한 자료 분석 도구입니다. 소스 3: "일본의 품질 관리 통계학박사 카오루 이시카와가 발명했다." 소스 4: "일본의 품질 관리 통계학박사 카오루 이시카와가 발명했다." 생선뼈와 유사한 모양을 가지며, 문제가 커다란 가시를 이루고 원인, 해결, 영향 등이 작은 가시 형태로 붙어있는 형상입니다. 소스 3: "생긴모양이 생선뼈처럼 생겼다하여 붙여진 이름으로... 문제가 커다란 가시를 이루고, 해결 또는 원인, 영향 등이 가시에 살처럼 붙어있는 형상이다." 소스 4: "생긴모양이 생선뼈처럼 생겼다하여 붙여진 이름으로... 문제가 커다란 가시를 이루고, 해결 또는 원인, 영향 등이 가시에 살처럼 붙어있는 형상이다." 주요 용도는 원인과 결과 확인, 프로세스 초기 단계 문제점 파악, 예상과 결과치 분석 등입니다. 최근에는 스타트업에서 시장성 및 수익성 파악 도구로도 사용됩니다. 소스 3: "원인과 결과를 확인하기 위한 용도, 프로세스 초기 단계에 있는 문제점들을 파악하기 위해서 사용하기도 하며, 예상과 결과치를 분석하기 위해서도 사용한다. 대부분 자료분석툴로 사용하지만 최근 스타트업에서도 시장성 및 수익성 파악을 위한 도구로서 사용하기도 한다." 소스 4: "원인과 결과를 확인하기 위한 용도, 프로세스 초기 단계에 있는 문제점들을 파악하기 위해서 사용하기도 하며, 예상과 결과치를 분석하기 위해서도 사용한다. 대부분 자료분석툴로 사용하지만 최근 스타트업에서도 시장성 및 수익성 파악을 위한 도구로서 사용하기도 한다." Fishbone Diagram은 사안을 시각화하여 한눈에 파악하고, 요소별 분석을 통해 해결 방안이나 아이디어 도출에 용이하다는 장점이 있습니다. 소스 4: "Fishbone Diagram- 생선뼈 방법의 좋은 점은 사안에 대해 시각화를 통해 한 눈에 알아볼 수 있다는 점, 요소 별로 분석해 볼 수 있어 해결 방안이나 추가 아이디어 도출 등에도 쉽게 활용할 수 있는 점인 것 같아요" 개발 현황 및 고려사항: 현재 Ollama (Gemma LLM 사용)를 활용하여 뉴스 기사를 Fishbone Diagram으로 생성하는 기본적인 기능은 구현되었습니다. 소스 1: "지금 잼마라고 구글에서 만든 걸 지금 사용을 하고 있는데 어 뭐 생각보다는 잘 정리해서 예 문서를 만들어 주거든요 네 그 문서 만들어진 것을 이제 PC본이라고 보시면" https://www.youtube.com/watch?v=yfFnq8TdXwY 소스 2: "옵시디언 플러그인으로도 생각은 하고 있으며" 회사 서버를 AI 서버로 바꾸는 방안도 고려했으나 비용 문제가 있습니다. 소스 2: "회사 서버를 줄이고 AI가 빨리 돌아가는 서버로 바꿀까 했는데 비용이 만만치 않네요 ^^;" 초기 샘플 생성 시 예상치 못한 결과가 나올 수 있습니다. 소스 1: "지금 샘플을 바로 전까지 잘 만들었는데 샘플이 갑자기 엉망이 됐죠 네" 향후 계획: 하루에 하나씩 새로운 기능을 개발하고 공유할 플랫폼을 모색하고 있습니다. 소스 2: "하루에 하나씩 이런거 만들고 어디에 올려야 하나 지금 고민중입니다." 사용자들이 쉽게 응용하고 접목할 수 있도록 한눈에 보기 좋은 새로운 지식 콘텐츠 형태를 계속 개발할 예정입니다. 소스 1: "한눈에 보기 좋아야 사람들이 어 응용하고 그다음에 거기에 접목할 수 있기 때문에 그런 걸 만들고 있습니다 이게 한 권의 책이 될 거예요" 결론: 본 프로젝트는 LLM의 강점을 활용하여 텍스트 데이터를 시각화하고, 사용자가 이를 쉽게 편집하고 공유할 수 있는 도구를 개발하는 것을 목표로 합니다. 특히 Fishbone Diagram과 같은 분석 도구를 자동 생성하여 정보의 이해도를 높이고, 다양한 출력 형식과 연동 기능을 통해 활용 범위를 넓히는 데 중점을 두고 있습니다. 앞으로 지식 공유 및 공동 편집 기능 강화를 통해 사용자 참여를 유도하고, 새로운 형태의 지식 콘텐츠 생태계를 구축하려는 비전을 가지고 있습니다.
  • 0 투표
    1 게시물
    0 조회수
    A
    원본: 자유게시판 작성자: 최고관리자 날짜: 2025-07-21 01:28:01 본 문서는 제공된 자료들을 바탕으로, 대규모 언어 모델(LLM)인 Ollama와 Gemma를 활용하여 뉴스 기사 등 텍스트 데이터를 다양한 프레임워크(특히 Fishbone Diagram)로 시각화하고 편집할 수 있는 도구 개발에 대한 핵심 내용을 요약합니다. 주요 목표 및 아이디어: LLM을 활용한 자동 시각화: Ollama (Gemma 3.4b LLM 사용)를 이용하여 뉴스 기사 등의 텍스트 데이터를 입력하면, Fishbone Diagram과 같은 다양한 다이어그램 형태로 자동으로 분석하고 시각화하는 것을 목표로 합니다. 소스 1: "올라마라고 아실 거예요 그래서 뭐 기사를 가지고 이렇게 넣으면네 올라마라는 그 본인 컴퓨터에다가 이제 설치할 수 있는 lm이 있어요 지금 잼마라고 구글에서 만든 걸 지금 사용을 하고 있는데 어 뭐 생각보다는 잘 정리해서 예 문서를 만들어 주거든요 네 그 문서 만들어진 것을 이제 PC본이라고 보시면" 소스 2: "Ollama Gemma3:4b LLM을 사용해서 뉴스기사를 각종 프레임워크로 디자인 편집할 수 있는 기능을 만들었습니다." 편집 및 디자인 기능: 생성된 다이어그램을 화면 상에서 직접 편집하고 디자인할 수 있는 기능을 제공합니다. 이는 인디자인이나 기타 편집 프로그램으로 내보내기 위한 레이아웃 데이터 생성의 목적도 포함합니다. 소스 1: "그래서 어 뭐 지금 PC본을 머리가 위쪽에 있게 만드는 방식으로 구성을 좀 바꿨어요 이게 드래그 앤드랍으로 지금 요렇게 나오는데... 이동을 할 수가 있거든요... 편집 모드도네 간단하게만 만들었는데 요렇게 해서 만들어진 거를 제이손 파일로 내보낼 수도 있고 또 레이아웃을 이렇게 저장해 놓으면 요게 지금 디자인 파일로 예 사용하실 수가 있거든요" 소스 2: "디자인 편집이 화면 상에서 가능합니다. (결론은 인디자인이나 편집프로그램으로 보내기 위한 레이아웃 데이터 생성이 목적입니다.)" 다양한 프레임워크 및 다이어그램 지원: Fishbone Diagram 외에도 만다라트, 4분면 등 다양한 다이어그램 형태를 지원하여, 텍스트 데이터를 여러 방식으로 분석하고 시각화할 수 있도록 합니다. 소스 1: "PC본도 있지만 사실 다이어그램 굉장히 많거든요 그래서 기본적인 다이어그램하고 그다음 거기에 맞는 키워드들을 뽑아내서네 요런 형태에네 뭐 PC번이라든지 아니면은 뭐 4분면이라든지뭐 이런데 다 맞춰 가지고 쓸 수 있게 그래서 요거를 지금 저희가 만다라트도 만들었고 그다음에 PC번도 있지만 사실 이거 외에도" 출력 및 연동 기능 강화: 생성된 결과물을 SVG, JSON 등 다양한 형식으로 내보낼 수 있으며, Canva, Adobe Express 등 상용 디자인 도구와의 연동을 고려하고 있습니다. 소스 2: "인포그래픽이나 어떤 그래픽 작업도 가능하게 기본 출력물을 svg, json, 상용 LLM 및 Canva, AdobeExpress 에 보내서 다시 기계가 그리기 쉽게 바꾸고 있습니다." 소스 1: "요렇게 해서 만들어진 거를 제이손 파일로 내보낼 수도 있고 또 레이아웃을 이렇게 저장해 놓으면 요게 지금 디자인 파일로 예 사용하실 수가 있거든요" 지식 공유 및 위키 기능: 생성된 시각화 결과물을 다른 사용자와 공유하고, 공동으로 수정 및 업데이트할 수 있는 위키와 같은 기능을 구상하고 있습니다. 이는 텍스트 형태의 문서를 다양한 형식으로 구성하는 서비스를 통해 새로운 지식 콘텐츠를 생성하고 공유하는 것을 목표로 합니다. 소스 1: "이걸 지식 체계로 만들어서 생성해서 그 생성한 데이터를 다른 사람들하고 공유할 수 있는 그런 형태의 컨텐츠를 한번 만들어 보려고 지금 하고 있고요 그리고 어 다른 사람들이 또 수정해 주면 업데이트된 내용을 내가 다시 볼 수 있는 위키 같은게 되게 하려고 해요... 이걸 다른 형식으로 구성하는 서비스를 만들고 있어요" 소형 LLM의 활용성: Ollama와 같은 소형 LLM이 본인 컴퓨터에서도 잘 작동하며, 이를 통해 새로운 지식 콘텐츠를 만드는 데 유용하게 활용될 수 있다는 점에 주목합니다. 소스 1: "그 올라마를 사용한 이유는 사실 그 작은 모델은 굉장히 잘 돌아요 본인 컴퓨터에서도 잘 돌릴 수 있고 잘 돌리면 그걸 가지고 할 수 있는 거는 어 새로운 지식 콘텐츠를 만드는게 어 쓸모가 아닐까 생각하고 있거든요" Fishbone Diagram (이시카와 다이어그램) 관련 정보: Fishbone Diagram은 "이시카와 다이어그램", "물고기뼈 다이어그램", "생선뼈 다이어그램"으로도 불립니다. 소스 3: "이시카와 다이어그램 (Ishikawa diagrams), 물고기뼈 다이어그램, 생선뼈 다이어그램 (Fish bone diagram)" 소스 4: "Fishbone Diagram 은.. 이시카와 다이어그램 (Ishikawa diagrams), 생선뼈 다이어그램 (Fish bone diagram)" 일본의 품질 관리 통계학 박사 카오루 이시카와가 발명한 자료 분석 도구입니다. 소스 3: "일본의 품질 관리 통계학박사 카오루 이시카와가 발명했다." 소스 4: "일본의 품질 관리 통계학박사 카오루 이시카와가 발명했다." 생선뼈와 유사한 모양을 가지며, 문제가 커다란 가시를 이루고 원인, 해결, 영향 등이 작은 가시 형태로 붙어있는 형상입니다. 소스 3: "생긴모양이 생선뼈처럼 생겼다하여 붙여진 이름으로... 문제가 커다란 가시를 이루고, 해결 또는 원인, 영향 등이 가시에 살처럼 붙어있는 형상이다." 소스 4: "생긴모양이 생선뼈처럼 생겼다하여 붙여진 이름으로... 문제가 커다란 가시를 이루고, 해결 또는 원인, 영향 등이 가시에 살처럼 붙어있는 형상이다." 주요 용도는 원인과 결과 확인, 프로세스 초기 단계 문제점 파악, 예상과 결과치 분석 등입니다. 최근에는 스타트업에서 시장성 및 수익성 파악 도구로도 사용됩니다. 소스 3: "원인과 결과를 확인하기 위한 용도, 프로세스 초기 단계에 있는 문제점들을 파악하기 위해서 사용하기도 하며, 예상과 결과치를 분석하기 위해서도 사용한다. 대부분 자료분석툴로 사용하지만 최근 스타트업에서도 시장성 및 수익성 파악을 위한 도구로서 사용하기도 한다." 소스 4: "원인과 결과를 확인하기 위한 용도, 프로세스 초기 단계에 있는 문제점들을 파악하기 위해서 사용하기도 하며, 예상과 결과치를 분석하기 위해서도 사용한다. 대부분 자료분석툴로 사용하지만 최근 스타트업에서도 시장성 및 수익성 파악을 위한 도구로서 사용하기도 한다." Fishbone Diagram은 사안을 시각화하여 한눈에 파악하고, 요소별 분석을 통해 해결 방안이나 아이디어 도출에 용이하다는 장점이 있습니다. 소스 4: "Fishbone Diagram- 생선뼈 방법의 좋은 점은 사안에 대해 시각화를 통해 한 눈에 알아볼 수 있다는 점, 요소 별로 분석해 볼 수 있어 해결 방안이나 추가 아이디어 도출 등에도 쉽게 활용할 수 있는 점인 것 같아요" 개발 현황 및 고려사항: 현재 Ollama (Gemma LLM 사용)를 활용하여 뉴스 기사를 Fishbone Diagram으로 생성하는 기본적인 기능은 구현되었습니다. 소스 1: "지금 잼마라고 구글에서 만든 걸 지금 사용을 하고 있는데 어 뭐 생각보다는 잘 정리해서 예 문서를 만들어 주거든요 네 그 문서 만들어진 것을 이제 PC본이라고 보시면" https://www.youtube.com/watch?v=yfFnq8TdXwY 소스 2: "옵시디언 플러그인으로도 생각은 하고 있으며" 회사 서버를 AI 서버로 바꾸는 방안도 고려했으나 비용 문제가 있습니다. 소스 2: "회사 서버를 줄이고 AI가 빨리 돌아가는 서버로 바꿀까 했는데 비용이 만만치 않네요 ^^;" 초기 샘플 생성 시 예상치 못한 결과가 나올 수 있습니다. 소스 1: "지금 샘플을 바로 전까지 잘 만들었는데 샘플이 갑자기 엉망이 됐죠 네" 향후 계획: 하루에 하나씩 새로운 기능을 개발하고 공유할 플랫폼을 모색하고 있습니다. 소스 2: "하루에 하나씩 이런거 만들고 어디에 올려야 하나 지금 고민중입니다." 사용자들이 쉽게 응용하고 접목할 수 있도록 한눈에 보기 좋은 새로운 지식 콘텐츠 형태를 계속 개발할 예정입니다. 소스 1: "한눈에 보기 좋아야 사람들이 어 응용하고 그다음에 거기에 접목할 수 있기 때문에 그런 걸 만들고 있습니다 이게 한 권의 책이 될 거예요" 결론: 본 프로젝트는 LLM의 강점을 활용하여 텍스트 데이터를 시각화하고, 사용자가 이를 쉽게 편집하고 공유할 수 있는 도구를 개발하는 것을 목표로 합니다. 특히 Fishbone Diagram과 같은 분석 도구를 자동 생성하여 정보의 이해도를 높이고, 다양한 출력 형식과 연동 기능을 통해 활용 범위를 넓히는 데 중점을 두고 있습니다. 앞으로 지식 공유 및 공동 편집 기능 강화를 통해 사용자 참여를 유도하고, 새로운 형태의 지식 콘텐츠 생태계를 구축하려는 비전을 가지고 있습니다.
  • 0 투표
    1 게시물
    8 조회수
    A
    원본: 자유게시판 작성자: 최고관리자 날짜: 2025-07-21 01:27:25 Ollama Gemma3:4b LLM을 사용해서 뉴스기사를 각종 프레임워크로 디자인 편집할 수 있는 기능을 만들었습니다. https://www.youtube.com/watch?v=slwLqWxu1CQ 인포그래픽이나 어떤 그래픽 작업도 가능하게 기본 출력물을 svg, json, 상용 LLM 및 Canva, AdobeExpress 에 보내서 다시 기계가 그리기 쉽게 바꾸고 있습니다. 옵시디언 플러그인으로도 생각은 하고 있으며 디자인 편집이 화면 상에서 가능합니다. (결론은 인디자인이나 편집프로그램으로 보내기 위한 레이아웃 데이터 생성이 목적입니다.) 하루에 하나씩 이런거 만들고 어디에 올려야 하나 지금 고민중입니다. 회사 서버를 줄이고 AI가 빨리 돌아가는 서버로 바꿀까 했는데 비용이 만만치 않네요 ^^;
  • 0 투표
    1 게시물
    8 조회수
    A
    원본: 자유게시판 작성자: 최고관리자 날짜: 2025-07-21 01:27:25 Ollama Gemma3:4b LLM을 사용해서 뉴스기사를 각종 프레임워크로 디자인 편집할 수 있는 기능을 만들었습니다. https://www.youtube.com/watch?v=slwLqWxu1CQ 인포그래픽이나 어떤 그래픽 작업도 가능하게 기본 출력물을 svg, json, 상용 LLM 및 Canva, AdobeExpress 에 보내서 다시 기계가 그리기 쉽게 바꾸고 있습니다. 옵시디언 플러그인으로도 생각은 하고 있으며 디자인 편집이 화면 상에서 가능합니다. (결론은 인디자인이나 편집프로그램으로 보내기 위한 레이아웃 데이터 생성이 목적입니다.) 하루에 하나씩 이런거 만들고 어디에 올려야 하나 지금 고민중입니다. 회사 서버를 줄이고 AI가 빨리 돌아가는 서버로 바꿀까 했는데 비용이 만만치 않네요 ^^;
  • AI Spencerian 글씨체 온라인 가이드

    AI와 함께 free
    1
    0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 최고관리자 날짜: 2025-07-21 01:26:30 Spencerian 글씨체 가이드 코카콜라 글씨체로 잘 알려진 19세기 미국에서 유래한 Spencerian 스크립트는 우아하고 세련된 필기체입니다. 이 가이드를 통해 아름다운 Spencerian 글씨체를 배워보세요. https://www.youtube.com/watch?v=FfK7hcUIWYI https://a1bbs.com/spencerian #글씨 #필기체 #Spencerian
  • 0 투표
    1 게시물
    9 조회수
    A
    원본: 자유게시판 작성자: 최고관리자 날짜: 2025-07-21 01:26:00 만다라트로 보는 비주얼 손자병법 #책 생각 정리를 위한 손자병법 제시카 해기 저/김성환 역 | 생각정리연구소 https://www.yes24.com/product/goods/59184737 도표와 그래프로 배우는 필승의 기술! 시대를 뛰어넘는 일류 전략서 ‘손자병법’의 21세기 버전 탄생! https://www.youtube.com/watch?v=f7ZIVTkFi3s 미국 경제잡지 포브스(Forbes)에 연재를 시작하여 2년간 큰 반향을 일으킨 재시카 해기의 생각 정리를 위한 손자병법은 중국인이 아닌 미국인의 눈으로 바라보는 병법서의 핵심요결을 한 장의 그림으로 현대적으로 해석한 간단하면서 핵심을 한 눈에 알아볼 수 있게 재해석했다. 영미권에는 Art of War 라는 이름으로 알려진 손자병법은 2천 5백여 년 전에 만들어진 고대 중국의 병법서이다. 이 책은, 수세기에 걸쳐 군사 전략에 관한 필독서로 자리 잡았음은 물론 사업, 정치, 경영, 마케팅, 스포츠 등의 분야에서 우세를 점하기 위한 지침서로도 널리 읽혔다. 특히 조직을 운용하는 리더십과 자기계발을 위한 실용서로서 꾸준히 사랑받고 있는 책이기도 하다. 『생각 정리를 위한 손자병법』은 동양의 대표적인 고전인 손자병법을 도표와 그래프로 재구성한 독특한 책이다. 언뜻 간단해 보이지만 사실 이는 쉽지 않은 고난한 작업이다. 지혜의 정수를 간단한 도표와 그래프로 옮기는 작업이 만만할 리가 없다. 하지만 비주얼 씽킹 분야에서 다년간 작업을 하면 내공을 쌓은 저자 재시카 해기는 마침내 오롯이 결과물을 내놓을 수 있었다. 재시카 해기는 손자병법 13편 중 핵심 내용을 선별해 한 권의 책에 계(計)ㆍ작전(作?)ㆍ모공(謀攻)ㆍ군형(?形)ㆍ병세(兵?)ㆍ허실(虛實)ㆍ군쟁(?爭)ㆍ구변(九?)ㆍ행군(行?)ㆍ지형(地形)ㆍ구지(九地)ㆍ화공(火攻)ㆍ용간(用?)의 내용을 담아냈다. 이로써 시간의 먼지를 털어낸 보다 현대적인 판본, 싸움을 바라보는 우리들의 관점을 전환시켜줄 보다 시각적인 판본의 손자병법이 탄생했다. 손자병법에서 말하는 전쟁은 삶의 문제에 대한 은유가 될 수 있다. 실제로 우리는 늘 무언가와 싸우는 삶을 살고 있기 때문이다. 이런 이유로 이 책은 전쟁에 관한 책이지만 문제 해결에 관한 책이 되기도 한다. 다행히 손자는 우리에게 필승의 비결을 전해주었고 비주얼 리더 제기카 해기는 세월을 관통하는 그의 통찰력과 지혜를 도표와 그래프로 고스란히 녹여냈다. 이 책에 담긴 조언들은 군대를 이끄는 장수뿐만 아니라 학생회장에 출마하는 10살짜리 아이에게도 적용될 수 있다. 『생각 정리를 위한 손자병법』는 학생 및 기업가, 예술가, 구직자 등 모든 사람에게 인생의 도전과 기회를 바라보는 새로운 시각을 제공할 것이다.
  • 만다라트로 보는 AI시대 출판계의 과제와 해결방안

    AI와 함께 free
    1
    0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 최고관리자 날짜: 2025-07-21 01:25:24 만다라트로 보는 AI시대 출판계의 과제와 해결방안 문화정책은 어떻다? 그런 것보다 지원도 하고 감시도 좀 제대로 해야하는 https://www.youtube.com/watch?v=Dc9k9ntE96E #만다라트 #출판 #AI #시대 #출판산업
  • Gemini API 를 사용한 만다라트 생성 프로그램

    AI와 함께 free
    1
    0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 최고관리자 날짜: 2025-07-21 01:24:10 Gemini API 를 사용한 만다라트 생성 프로그램 기사를 넣으면 인터렉티브한 만다라트, 피시본, 프레임워크 100가지에 맞춰서 나오는 기능을 한층 업데이트하고 있는 중입니다. LLM은 선택할 수 있게 준비중이지만 사실 기대를 안하시는게 좋아요. 배포용 어플리케이션으로 만들어 윈도우, 맥, 리눅스에서도 동작합니다. https://www.youtube.com/watch?v=Cep_lJy7knE 주말까지 완성도를 높이고 테스트한 다음에 https://argo9.com/ #AI #Gemini #어플리케이션 #생성형ai #mandalaart
  • 출판의 다음은 AI웹퍼블리싱

    AI와 함께 free
    1
    0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 최고관리자 날짜: 2025-07-21 01:18:19 출판의 다음은 AI웹퍼블리싱
  • AI 시대 종이책 출판의 변혁과 도전 - 댓글

    AI와 함께 free
    1
    0 투표
    1 게시물
    3 조회수
    A
    원본: 자유게시판 작성자: 손호성 날짜: 2025-07-21 01:14:59 기획자는 뭘하고 먹고살아야 하나...
  • 프론트엔드개발 - 댓글

    자유게시판 free
    1
    0 투표
    1 게시물
    3 조회수
    A
    원본: 자유게시판 작성자: 손호성 날짜: 2025-07-21 01:14:16 vite나 열심히 마무리... 라우트하는 것도 react
  • 어린이 스도쿠 - 만다라트 뷰

    퍼즐 free
    1
    0 투표
    1 게시물
    10 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:11 이 만다라트는 "어린이 스도쿠"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 어린이 스도쿠 주제: 매일매일 두뇌 업그레이드! 전통적인 미로찾기와 스도쿠가 이렇게 전 세계적인 사랑을 받는 이유는, 수학적인 사고 개발은 물론 집중력, 논리력, 추리력을 키워주며 두뇌 건강을 지켜주기 때문입니다. 미로찾기는 고도의 시각 집중력을 극대화 하고 스도쿠는 논리사고력을 발달시켜 퍼즐 마니아들의 기대를 충족시켜 주는 최고의 퍼즐입니다. 문제를 풀어가는 능력과 귀납법, 연역법을 활용하는 논리사고력, 집중력, 창조력, 집중력을 키워주는 스도쿠를 통해, 건강을 위해 매일 몸을 단련하는 것처럼 이제 두뇌 훈련 트레이닝을 해보세요! 매일매일 두뇌 트레이닝 - 기적의 수학퍼즐 어린이 스도쿠 + 미로찾기는 기존 스도쿠에 익숙한 퍼즐 마니아에게도 만만치 않은 도전이 될 것이지만 그만큼 쾌감과 기쁨도 높아질 것입니다. 총300문제의 다양한 모양의 미로, 미궁 그리고 스도쿠를 풀어낼 수 있다면, 당신은 진정한 퍼즐챔피언이라 자신해도 좋을 것입니다. * 출처 : 예스24 기본 미로찾기는 삼각형을 출발점으로 원형을 찾아가는 퍼즐입니다. 6X6 스도쿠는 1부터 6의 숫자가 가로, 세로, 3X2의 박스에 겹치지 않고 들어갑니다. 8X8 스도쿠는 1부터 8의 숫자가 가로, 세로, 4X2의 박스에 겹치지 않고 들어갑니다. 육각 미궁은 삼각형의 출발점으로 가운데 원형을 찾아가는 퍼즐입니다. 삼각 미궁은 삼각형의 출발점으로 가운데 원형을 찾아가는 퍼즐입니다. 원형 미궁은 삼각형의 출발점으로 가운데 원형을 찾아가는 퍼즐입니다. 정답 생성일: 2025. 7. 10. 만다라트 보기: /view/3946D9B8536F32A4 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • AI-네이티브는 내 능력의 곱셈기 - 만다라트 뷰

    AI와 함께 free
    1
    0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:11 이 만다라트는 "AI-네이티브는 내 능력의 곱셈기"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: AI-네이티브는 내 능력의 곱셈기 주제: 핵심 요약: AI-네이티브는 “AI를 내 능력의 곱셈기”로 받아들이는 것에서 시작 “AI로 이 작업을 더 빠르고 창의적으로 해결할 수 있을까?”를 습관처럼 질문 프롬프트 엔지니어링, 에이전트 오케스트레이션 등 새로운 스킬과, 설계·비판적 사고·윤리 등 시대를 초월한 역량이 함께 중요 AI는 끊임없이 배우며, AI로 다른 분야까지 학습 속도를 올릴 수 있음(선순환 구조) 실전에서는 다양한 도구(IDE 어시스턴트, 프로토타입 생성기 등)를 직접 조합, 상황별로 “어떤 툴을 쓸지” 골라 쓸 줄 아는 장인이 경쟁력 AI는 모든 단계에서 협업 파트너: 코딩, 테스트, 디버깅, 문서화, 설계 브레인스토밍까지 함께 AI가 많을수록, 인간 고유의 크리에이티브/판단/통찰에 집중할 수 있음 책임감·검증 태도 강조: AI의 뛰어난 기능에만 매몰되지 않고, 건강한 회의론·엄격한 리뷰·테스트·한계 인식으로 실수 방지 베스트 프랙티스(명확한 프롬프트, 코드리뷰, 소규모 반복, 한계 인식)만 지키면 AI 활용 신뢰도↑ 경험 많은 엔지니어는 AI의 오류도 효율적으로 통제하며, 복잡한 문제/시스템 통합 역량에서 가치가 더 커짐 향후 전망: AI는 점점 더 강력해지고, 개발 툴에 깊이 통합됨(예: IDE가 AI로 코드/문서/성능을 실시간 점검) 프론트엔드/데이터베이스 등 특화 AI가 나올 것 “AI-네이티브”가 곧 “소프트웨어 엔지니어”의 표준이 될 시대가 도래 AI가 진입장벽을 낮추면서, 기존 비전통적 개발자도 더 쉽게 소프트웨어를 만들게 될 것 AI 활용 엔지니어는 도구 개발·멘토링 등 새로운 역할로 확장 AI가 반복노동을 대신함으로써, 상상력·설계력 중심의 창의적 엔지니어링 시대 개막 실천 팁: 단번에 바꾸려 하지 말고, 한두 도구/한 영역부터 시작→점차 확장 AI가 처음으로 테스트에서 버그를 잡아주는 기쁨, 리팩터링에서 실수한 경험 등 ‘성공/실패’ 모두 학습 기회로 팀에도 이런 문화가 퍼지면, 생산성뿐 아니라 개발의 즐거움까지 되찾게 됨 마지막 조언: “AI 도입”은 한 번의 변화가 아닌 ‘여정’임 실용적·지속적인 학습과 팀 문화로, AI가 내 옆 동료가 되는 시대를 주도적으로 맞이할 것 생성일: 2025. 7. 10. 만다라트 보기: /view/F1CD2DBF45038389 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 최근 LLM을 이용한 글쓰기 - 만다라트 뷰

    이동됨 AI와 함께 free
    1
    0 투표
    1 게시물
    8 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:11 이 만다라트는 "최근 LLM을 이용한 글쓰기"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 최근 LLM을 이용한 글쓰기 주제: 최근 LLM을 이용한 글쓰기가 늘어나면서, 자연스럽지 않은 글쓰기 패턴이 눈에 띄게 많아짐 빈약한 요약 문장, 과도한 불릿 포인트, 단조로운 문장 리듬 등은 LLM 글쓰기의 대표적 문제점임 정보 밀도가 낮거나, 모호한 표현이 자주 등장해 실질적 인사이트가 부족해지는 경향이 있음 반면, 의도적 반복, 명확한 표지 구문, 평행 구조 등은 LLM 스타일로 오해받지만, 실제로는 효과적인 글쓰기 도구임 저자는 LLM을 활용해 아웃라인 설계와 초안 생성, 부분별 리라이트에 도움을 받으면서도, 최종 판단과 깊이 있는 내용 구성은 인간의 몫이라고 강조함 Common Patterns of Bad Writing I See from LLM Tools 최근 몇 년 동안 여러 기술 논문과 블로그 글을 작성하고 리뷰하면서, LLM 기반 글에서 항상 어딘가 미묘하게 "어색하고 덜 매력적"인 느낌을 자주 받음 동시에, 초안 작성, 복잡한 자료 요약, 흐트러진 생각 정리에는 LLM 활용이 큰 도움을 주는 것도 경험함 이 글에서는 LLM이 많이 생성하는 나쁜 글쓰기 패턴과, 흔히 “LLM 스타일”로 오해받지만 사실은 괜찮은 글쓰기 습관, 그리고 필자가 실제로 사용하는 작성 및 프롬프트 규칙을 공유함 Empty “summary” sentences that pretend to conclude a thought 문단 마지막에 “By following these steps, we achieve better performance.”, “By internalizing these principles, you can cut through the noise.”와 같이 결론처럼 보이지만 실질적으로 아무 의미 없는 요약 문장이 자주 등장함 “이 과정을 따르면 더 나은 성능을 얻을 수 있음” “이 원칙을 내재화하면 혼란을 헤치고 나아갈 수 있음” 이런 문장은 독자에게 새로운 통찰이나 고민거리를 제공하지 못함 필자 역시 LLM에게 이런 실질적 메시지가 담긴 문장을 쓰게 만드는 확실한 방법을 찾지 못함 Overuse of bullet points and outlines LLM은 불릿 포인트(리스트)와 아웃라인을 과도하게 남용하는 경향이 있음 항목들이 평행하고 독립적일 때는 리스트가 유용하지만, 아이디어가 연결되거나 맥락이 중요한 부분에서는 문단이 더 적합함 Flat sentence rhythm 모든 문장이 비슷한 길이와 구조로 반복되면 글이 지루해지고, 읽는 사람이 따라가기 어려워짐 문장 길이와 리듬을 다양하게 조절해야 강조, 주의 환기, 속도 조절이 가능해짐 Bad example: "We recently launched a conversational AI feature that lets users ask questions in plain English and get responses based on their past activity and current session. The system searches a database of help articles, ranks the most relevant ones using a custom scoring function, and passes the top result into a language model to generate the final answer. We spent weeks optimizing each step to keep latency under 300 milliseconds, including caching, pruning irrelevant articles, and tuning prompt templates." "우리는 최근 사용자가 평문으로 질문하고 이전 활동과 현재 세션을 기반으로 답변을 받을 수 있는 대화형 AI 기능을 출시함. 이 시스템은 도움말 아티클 데이터베이스를 검색하고, 커스텀 점수 알고리듬으로 가장 관련성 높은 항목을 선정한 뒤, 그 결과를 언어 모델에 전달하여 최종 답변을 생성함. 각 단계의 지연 시간을 300밀리초 이내로 유지하기 위해 캐싱, 불필요 아티클 제거, 프롬프트 템플릿 최적화 등에 몇 주를 투자함" Good example: "We just launched a new conversational AI feature. It answers user questions in plain language, using context from the current session. The system searches help articles, scores them with a custom ranking function, feeds the top result into a fine-tuned language model, and runs in under 300ms using caching, pruning, and prompt tuning techniques." "우리는 새로운 대화형 AI 기능을 출시함. 이 기능은 현재 세션의 맥락을 이용해 사용자의 질문에 평문으로 답변함. 시스템은 도움말 아티클을 검색하고, 커스텀 점수화로 최상위 결과를 선정하여, 미세 조정된 언어 모델에 입력함. 캐싱, 데이터 정제, 프롬프트 튜닝을 적용해 300밀리초 이내로 동작함" Not the right subject 주어 선정이 부적절할 때 문장 핵심이 흐려짐 Bad example: "Readers are better guided when the subject matches the main idea of the sentence." "주어가 문장의 핵심 아이디어와 맞을 때 독자가 더 잘 안내받을 수 있음" Good example: "Choosing the right subject keeps the writing clear and focused." "올바른 주어 선택이 글의 명확성과 집중도를 높여줌" 올바른 주어 선택이 글의 일관성, 집중력에 중요함 Low information density 아래는 Gemini 2.5 Pro로부터 받은 LLM 생성 글의 예시임: "As someone who writes, reviews, and deconstructs complex information for a living, I’ve developed a strong allergy to bad writing. And lately, a lot of that bad writing has a specific, synthetic flavor—the unmistakable scent of an LLM. This post is a guide to navigating the new world of writing, with or without LLM assistance. First, I’ll cover the true pitfalls of LLM-generated text—the red flags that make it feel sterile and unconvincing." "복잡한 정보를 다루고 글을 쓰고 리뷰하는 사람으로서, 나쁜 글쓰기에 민감해짐. 최근엔 그 나쁜 글이 점점 인공적이고 LLM 특유의 향을 띔. 이 글은 LLM이 있는 시대의 글쓰기를 다루는 가이드임. 먼저 LLM이 만드는 대표적인 문제점들을 살피고자 함." 문장 구조나 문법은 완벽하지만, 실질적 통찰이나 구체적 정보, 논지의 진행이 없음 Vagueness LLM 글은 구체성 회피 경향이 강함 아이디어를 명확히 정의하지 않고, 증거 없는 주장을 하거나, 누구의 이야기인지 불분명하게 작성함 “Some experts say prompt engineering is becoming less important. The ability to simply prompt LLMs can have a major impact on productivity.” “일부 전문가들은 프롬프트 엔지니어링의 중요성이 줄어든다고 말함. LLM에 단순히 프롬프트를 입력하는 능력이 생산성에 큰 영향을 줄 수 있음” → 누가, 어떤 맥락에서, 누구에게 영향을 주는지 등 구체적 근거와 대상이 부족함 Overuse of demonstrative pronouns "this", "that", "these", "those" 등 지시대명사 남용이 많아짐 참조하는 명사가 명확하지 않으면 독자가 내용을 놓치기 쉬움 “This creates friction in production.” “이로 인해 프로덕션 환경에서 마찰이 발생함” 여기서 "this/이"가 무엇을 가리키는지 명확하지 않음 Fluency without understanding 겉보기에 매끄럽지만 실제로 설명력이 부족한 문장이 자주 등장함 “LLMs use attention mechanisms to generate contextually appropriate responses.” “LLM은 어텐션 메커니즘을 활용해 맥락에 맞는 응답을 생성함” → 독자가 attention이 뭔지 모르면 아무런 정보도 전달하지 못함 LLM은 기존에 없는 용어를 만들어내는 경우도 잦음 “We used GPT-4 for summarization, but it hallucinated details, so we added retrieval grounding.” “우리는 요약에 GPT-4를 사용했으나, 사실을 잘못 생성해 retrieval grounding을 추가함” → “retrieval grounding”은 실제 존재하지 않는 용어임 LLM은 독자의 배경지식과 설명 필요성을 구분하지 못해 어려운 부분은 자주 넘어가버림 Writing Patterns People Flag as “LLM-Like,” But Are Actually Fine 사람들이 LLM 스타일이라고 지나치게 경계하지만, 실제로는 효과적이고 일반적인 글쓰기 패턴도 있음 중요한 것은 모델처럼 보이지 않는 글을 쓰는 것이 아니라, 명확함, 의도, 통제력을 가진 글을 쓰는 것임 Intentional repetition 반복은 복잡한 아이디어를 명확히 하거나 강조할 때 효과적임 "Vector databases store embeddings, or mathematical representations that capture semantic meaning in hundreds of dimensions. In other words, vector databases help find results that are “close” in meaning, not just exact text matches." “벡터 데이터베이스는 임베딩, 즉 수백 차원에서 의미를 포착하는 수학적 표현을 저장함. 다시 말해, 벡터 데이터베이스는 텍스트가 정확히 일치하지 않아도 ‘의미상 가까운’ 결과를 찾는 데 도움을 줌” Signposting phrases "essentially", "in short", "the point is..." 같은 표지 구문은 뒤에 실제 정보가 따라온다면 유용함 예시: "Essentially, instead of classifying the document as a whole, we classify each section independently." “본질적으로, 문서 전체를 분류하는 대신 각 섹션을 개별적으로 분류함” Parallel structure 평행 구조는 아이디어를 조직적으로 정리하고, 문장 흐름을 매끄럽게 만듦 "The system scales across inputs, stays responsive under load, and returns consistent results even with noisy prompts." “이 시스템은 다양한 입력을 확장 처리하고, 부하 상황에서도 반응성을 유지하며, 프롬프트가 혼란스러워도 일관된 결과를 반환함” Section headings that echo a structure “Why X fails”, “What to do instead”, “How to know if it worked”처럼 예측 가능한 구조의 섹션 헤딩은 내용이 명확하다면 충분히 효과적임 Declarative openings 단호한 선언형 문장으로 섹션을 시작하는 것은, 뒷받침되는 증거나 설명이 있다면 오히려 글의 초점을 강화함 예시: "LLM evaluations are hard to get right. Many rely on user-defined gold labels or vague accuracy metrics, which do not work for subjective or multi-step tasks." “LLM 평가를 제대로 하는 것은 어려움. 많은 평가는 사용자 정의 기준이나 모호한 정확도 지표에 의존하는데, 이는 주관적이거나 복잡한 작업에는 적합하지 않음” Em dashes 엠 대시(—) 는 문장 내에서 부연설명이나 리듬 변화, 빠른 전환 등에 유용함 적절히 사용하면 자연스러운 구어체 흐름과 강조에 도움이 됨 How I Write with LLMs 필자는 글쓰기에서 흐름(모멘텀)을 유지하는 것을 가장 중요하게 생각함 실제 논문이나 블로그 글 작업 과정은 대개 아래와 같음 아웃라인 계획(종이에 쓰거나 머릿속에 그리기) 초안 생성 작성한 내용 읽기 및 비판적 검토 수정 이 과정은 문장 단위, 섹션 단위 등 다양한 범위에서 반복될 수 있음 사람마다 계획 단계, 초안 작성, 수정 단계 중 막히는 부분이 다름 필자는 아웃라인은 빨리 만들지만, 표현 방식(phrasing)에서 자주 막힘 LLM을 막힌 부분을 넘어가거나 초안 구성을 빠르게 하기 위한 도구로 적극 활용함 Narrate the story to the model 초안 시작 시, 동료에게 구조를 설명하듯 러프하게 이야기를 적어 LLM에 붙여넣고, 상세한 아웃라인 생성을 요청함 구조가 명확해질 때까지 이 작업을 반복함 Write the paragraph myself, even if it’s rough 아웃라인이 완성되면, 각 문단은 직접 작성하려고 노력함(거칠어도 상관없음) 문장을 끝까지 쓰기 어려울 때에는 “finish it” 식으로 LLM에 요청해서 여러 완성본 중 최적의 것을 선택, 필요하면 약간 수정해 활용함 “In the last couple of years, I’ve written and reviewed several technical papers and blog posts. Something always feels slightly off, enough to make the writing quietly uninviting. At the same time, I feel like I get tremendous value from using LLMs to write…” “finish it” “지난 몇 년간 여러 기술 논문과 블로그 글을 썼음. 항상 어딘가 미묘하게 어색해서 글이 조용히 매력을 잃는 경우가 있었음. 동시에 LLM을 활용해 글을 쓰는 데서 엄청난 가치를 얻는다고 느꼈음…” “finish it” → 모델이 여러 제안을 내고, 그 중 가장 나은 것을 골라 약간 수정해 넘김 Use scoped rewrite strategies during revision 문단이나 문장이 어색할 때는 “make it better” 대신 구체적인 요청이나 패턴(수사적 구조 등) 을 LLM에 전달함 예시 전략: 주어와 동사를 최대한 가깝게, 문장 초반에 배치 SWBST(누가, 무엇을 원했으나, 어떤 장애물 때문에, 어떻게 대응했고, 결과는 어땠는가) 구조 활용 예시: "We used GPT-4 for summarization. We wanted fluent answers, but it hallucinated facts. So we added a retrieval step. Then we re-ranked outputs based on citation accuracy." “우리는 요약에 GPT-4를 사용했음. 유창한 답변을 원했지만, 사실을 잘못 생성함. 그래서 retrieval 단계를 추가함. 그 후 인용 정확도 기준으로 결과를 재정렬함” SWBST 구조는 기술 글에서도 동기, 문제, 대응, 결과를 간결하게 전달하는 데 효과적임 Parting Thoughts 이제는 중간 수준의 글(평균적 품질) 은 LLM으로 손쉽게 생성할 수 있는 시대임 하지만 무엇을 쓸지, 어떤 관점과 구조를 선택할지, 어디서 깊이 들어가야 할지 판단하는 일은 여전히 사람의 몫임 진정 좋은 글은 분량에 걸맞은 실질적 기여가 있어야 하며, 독자가 시간을 투자할 가치가 있도록 해야 함 이 기준을 충족하는 것이 필자가 추구하는 목표임 생성일: 2025. 7. 10. 만다라트 보기: /view/C27D2ABB33BACB6B 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 최근 LLM을 이용한 글쓰기 - 만다라트 뷰

    이동됨 AI와 함께 free
    1
    0 투표
    1 게시물
    8 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:11 이 만다라트는 "최근 LLM을 이용한 글쓰기"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 최근 LLM을 이용한 글쓰기 주제: 최근 LLM을 이용한 글쓰기가 늘어나면서, 자연스럽지 않은 글쓰기 패턴이 눈에 띄게 많아짐 빈약한 요약 문장, 과도한 불릿 포인트, 단조로운 문장 리듬 등은 LLM 글쓰기의 대표적 문제점임 정보 밀도가 낮거나, 모호한 표현이 자주 등장해 실질적 인사이트가 부족해지는 경향이 있음 반면, 의도적 반복, 명확한 표지 구문, 평행 구조 등은 LLM 스타일로 오해받지만, 실제로는 효과적인 글쓰기 도구임 저자는 LLM을 활용해 아웃라인 설계와 초안 생성, 부분별 리라이트에 도움을 받으면서도, 최종 판단과 깊이 있는 내용 구성은 인간의 몫이라고 강조함 Common Patterns of Bad Writing I See from LLM Tools 최근 몇 년 동안 여러 기술 논문과 블로그 글을 작성하고 리뷰하면서, LLM 기반 글에서 항상 어딘가 미묘하게 "어색하고 덜 매력적"인 느낌을 자주 받음 동시에, 초안 작성, 복잡한 자료 요약, 흐트러진 생각 정리에는 LLM 활용이 큰 도움을 주는 것도 경험함 이 글에서는 LLM이 많이 생성하는 나쁜 글쓰기 패턴과, 흔히 “LLM 스타일”로 오해받지만 사실은 괜찮은 글쓰기 습관, 그리고 필자가 실제로 사용하는 작성 및 프롬프트 규칙을 공유함 Empty “summary” sentences that pretend to conclude a thought 문단 마지막에 “By following these steps, we achieve better performance.”, “By internalizing these principles, you can cut through the noise.”와 같이 결론처럼 보이지만 실질적으로 아무 의미 없는 요약 문장이 자주 등장함 “이 과정을 따르면 더 나은 성능을 얻을 수 있음” “이 원칙을 내재화하면 혼란을 헤치고 나아갈 수 있음” 이런 문장은 독자에게 새로운 통찰이나 고민거리를 제공하지 못함 필자 역시 LLM에게 이런 실질적 메시지가 담긴 문장을 쓰게 만드는 확실한 방법을 찾지 못함 Overuse of bullet points and outlines LLM은 불릿 포인트(리스트)와 아웃라인을 과도하게 남용하는 경향이 있음 항목들이 평행하고 독립적일 때는 리스트가 유용하지만, 아이디어가 연결되거나 맥락이 중요한 부분에서는 문단이 더 적합함 Flat sentence rhythm 모든 문장이 비슷한 길이와 구조로 반복되면 글이 지루해지고, 읽는 사람이 따라가기 어려워짐 문장 길이와 리듬을 다양하게 조절해야 강조, 주의 환기, 속도 조절이 가능해짐 Bad example: "We recently launched a conversational AI feature that lets users ask questions in plain English and get responses based on their past activity and current session. The system searches a database of help articles, ranks the most relevant ones using a custom scoring function, and passes the top result into a language model to generate the final answer. We spent weeks optimizing each step to keep latency under 300 milliseconds, including caching, pruning irrelevant articles, and tuning prompt templates." "우리는 최근 사용자가 평문으로 질문하고 이전 활동과 현재 세션을 기반으로 답변을 받을 수 있는 대화형 AI 기능을 출시함. 이 시스템은 도움말 아티클 데이터베이스를 검색하고, 커스텀 점수 알고리듬으로 가장 관련성 높은 항목을 선정한 뒤, 그 결과를 언어 모델에 전달하여 최종 답변을 생성함. 각 단계의 지연 시간을 300밀리초 이내로 유지하기 위해 캐싱, 불필요 아티클 제거, 프롬프트 템플릿 최적화 등에 몇 주를 투자함" Good example: "We just launched a new conversational AI feature. It answers user questions in plain language, using context from the current session. The system searches help articles, scores them with a custom ranking function, feeds the top result into a fine-tuned language model, and runs in under 300ms using caching, pruning, and prompt tuning techniques." "우리는 새로운 대화형 AI 기능을 출시함. 이 기능은 현재 세션의 맥락을 이용해 사용자의 질문에 평문으로 답변함. 시스템은 도움말 아티클을 검색하고, 커스텀 점수화로 최상위 결과를 선정하여, 미세 조정된 언어 모델에 입력함. 캐싱, 데이터 정제, 프롬프트 튜닝을 적용해 300밀리초 이내로 동작함" Not the right subject 주어 선정이 부적절할 때 문장 핵심이 흐려짐 Bad example: "Readers are better guided when the subject matches the main idea of the sentence." "주어가 문장의 핵심 아이디어와 맞을 때 독자가 더 잘 안내받을 수 있음" Good example: "Choosing the right subject keeps the writing clear and focused." "올바른 주어 선택이 글의 명확성과 집중도를 높여줌" 올바른 주어 선택이 글의 일관성, 집중력에 중요함 Low information density 아래는 Gemini 2.5 Pro로부터 받은 LLM 생성 글의 예시임: "As someone who writes, reviews, and deconstructs complex information for a living, I’ve developed a strong allergy to bad writing. And lately, a lot of that bad writing has a specific, synthetic flavor—the unmistakable scent of an LLM. This post is a guide to navigating the new world of writing, with or without LLM assistance. First, I’ll cover the true pitfalls of LLM-generated text—the red flags that make it feel sterile and unconvincing." "복잡한 정보를 다루고 글을 쓰고 리뷰하는 사람으로서, 나쁜 글쓰기에 민감해짐. 최근엔 그 나쁜 글이 점점 인공적이고 LLM 특유의 향을 띔. 이 글은 LLM이 있는 시대의 글쓰기를 다루는 가이드임. 먼저 LLM이 만드는 대표적인 문제점들을 살피고자 함." 문장 구조나 문법은 완벽하지만, 실질적 통찰이나 구체적 정보, 논지의 진행이 없음 Vagueness LLM 글은 구체성 회피 경향이 강함 아이디어를 명확히 정의하지 않고, 증거 없는 주장을 하거나, 누구의 이야기인지 불분명하게 작성함 “Some experts say prompt engineering is becoming less important. The ability to simply prompt LLMs can have a major impact on productivity.” “일부 전문가들은 프롬프트 엔지니어링의 중요성이 줄어든다고 말함. LLM에 단순히 프롬프트를 입력하는 능력이 생산성에 큰 영향을 줄 수 있음” → 누가, 어떤 맥락에서, 누구에게 영향을 주는지 등 구체적 근거와 대상이 부족함 Overuse of demonstrative pronouns "this", "that", "these", "those" 등 지시대명사 남용이 많아짐 참조하는 명사가 명확하지 않으면 독자가 내용을 놓치기 쉬움 “This creates friction in production.” “이로 인해 프로덕션 환경에서 마찰이 발생함” 여기서 "this/이"가 무엇을 가리키는지 명확하지 않음 Fluency without understanding 겉보기에 매끄럽지만 실제로 설명력이 부족한 문장이 자주 등장함 “LLMs use attention mechanisms to generate contextually appropriate responses.” “LLM은 어텐션 메커니즘을 활용해 맥락에 맞는 응답을 생성함” → 독자가 attention이 뭔지 모르면 아무런 정보도 전달하지 못함 LLM은 기존에 없는 용어를 만들어내는 경우도 잦음 “We used GPT-4 for summarization, but it hallucinated details, so we added retrieval grounding.” “우리는 요약에 GPT-4를 사용했으나, 사실을 잘못 생성해 retrieval grounding을 추가함” → “retrieval grounding”은 실제 존재하지 않는 용어임 LLM은 독자의 배경지식과 설명 필요성을 구분하지 못해 어려운 부분은 자주 넘어가버림 Writing Patterns People Flag as “LLM-Like,” But Are Actually Fine 사람들이 LLM 스타일이라고 지나치게 경계하지만, 실제로는 효과적이고 일반적인 글쓰기 패턴도 있음 중요한 것은 모델처럼 보이지 않는 글을 쓰는 것이 아니라, 명확함, 의도, 통제력을 가진 글을 쓰는 것임 Intentional repetition 반복은 복잡한 아이디어를 명확히 하거나 강조할 때 효과적임 "Vector databases store embeddings, or mathematical representations that capture semantic meaning in hundreds of dimensions. In other words, vector databases help find results that are “close” in meaning, not just exact text matches." “벡터 데이터베이스는 임베딩, 즉 수백 차원에서 의미를 포착하는 수학적 표현을 저장함. 다시 말해, 벡터 데이터베이스는 텍스트가 정확히 일치하지 않아도 ‘의미상 가까운’ 결과를 찾는 데 도움을 줌” Signposting phrases "essentially", "in short", "the point is..." 같은 표지 구문은 뒤에 실제 정보가 따라온다면 유용함 예시: "Essentially, instead of classifying the document as a whole, we classify each section independently." “본질적으로, 문서 전체를 분류하는 대신 각 섹션을 개별적으로 분류함” Parallel structure 평행 구조는 아이디어를 조직적으로 정리하고, 문장 흐름을 매끄럽게 만듦 "The system scales across inputs, stays responsive under load, and returns consistent results even with noisy prompts." “이 시스템은 다양한 입력을 확장 처리하고, 부하 상황에서도 반응성을 유지하며, 프롬프트가 혼란스러워도 일관된 결과를 반환함” Section headings that echo a structure “Why X fails”, “What to do instead”, “How to know if it worked”처럼 예측 가능한 구조의 섹션 헤딩은 내용이 명확하다면 충분히 효과적임 Declarative openings 단호한 선언형 문장으로 섹션을 시작하는 것은, 뒷받침되는 증거나 설명이 있다면 오히려 글의 초점을 강화함 예시: "LLM evaluations are hard to get right. Many rely on user-defined gold labels or vague accuracy metrics, which do not work for subjective or multi-step tasks." “LLM 평가를 제대로 하는 것은 어려움. 많은 평가는 사용자 정의 기준이나 모호한 정확도 지표에 의존하는데, 이는 주관적이거나 복잡한 작업에는 적합하지 않음” Em dashes 엠 대시(—) 는 문장 내에서 부연설명이나 리듬 변화, 빠른 전환 등에 유용함 적절히 사용하면 자연스러운 구어체 흐름과 강조에 도움이 됨 How I Write with LLMs 필자는 글쓰기에서 흐름(모멘텀)을 유지하는 것을 가장 중요하게 생각함 실제 논문이나 블로그 글 작업 과정은 대개 아래와 같음 아웃라인 계획(종이에 쓰거나 머릿속에 그리기) 초안 생성 작성한 내용 읽기 및 비판적 검토 수정 이 과정은 문장 단위, 섹션 단위 등 다양한 범위에서 반복될 수 있음 사람마다 계획 단계, 초안 작성, 수정 단계 중 막히는 부분이 다름 필자는 아웃라인은 빨리 만들지만, 표현 방식(phrasing)에서 자주 막힘 LLM을 막힌 부분을 넘어가거나 초안 구성을 빠르게 하기 위한 도구로 적극 활용함 Narrate the story to the model 초안 시작 시, 동료에게 구조를 설명하듯 러프하게 이야기를 적어 LLM에 붙여넣고, 상세한 아웃라인 생성을 요청함 구조가 명확해질 때까지 이 작업을 반복함 Write the paragraph myself, even if it’s rough 아웃라인이 완성되면, 각 문단은 직접 작성하려고 노력함(거칠어도 상관없음) 문장을 끝까지 쓰기 어려울 때에는 “finish it” 식으로 LLM에 요청해서 여러 완성본 중 최적의 것을 선택, 필요하면 약간 수정해 활용함 “In the last couple of years, I’ve written and reviewed several technical papers and blog posts. Something always feels slightly off, enough to make the writing quietly uninviting. At the same time, I feel like I get tremendous value from using LLMs to write…” “finish it” “지난 몇 년간 여러 기술 논문과 블로그 글을 썼음. 항상 어딘가 미묘하게 어색해서 글이 조용히 매력을 잃는 경우가 있었음. 동시에 LLM을 활용해 글을 쓰는 데서 엄청난 가치를 얻는다고 느꼈음…” “finish it” → 모델이 여러 제안을 내고, 그 중 가장 나은 것을 골라 약간 수정해 넘김 Use scoped rewrite strategies during revision 문단이나 문장이 어색할 때는 “make it better” 대신 구체적인 요청이나 패턴(수사적 구조 등) 을 LLM에 전달함 예시 전략: 주어와 동사를 최대한 가깝게, 문장 초반에 배치 SWBST(누가, 무엇을 원했으나, 어떤 장애물 때문에, 어떻게 대응했고, 결과는 어땠는가) 구조 활용 예시: "We used GPT-4 for summarization. We wanted fluent answers, but it hallucinated facts. So we added a retrieval step. Then we re-ranked outputs based on citation accuracy." “우리는 요약에 GPT-4를 사용했음. 유창한 답변을 원했지만, 사실을 잘못 생성함. 그래서 retrieval 단계를 추가함. 그 후 인용 정확도 기준으로 결과를 재정렬함” SWBST 구조는 기술 글에서도 동기, 문제, 대응, 결과를 간결하게 전달하는 데 효과적임 Parting Thoughts 이제는 중간 수준의 글(평균적 품질) 은 LLM으로 손쉽게 생성할 수 있는 시대임 하지만 무엇을 쓸지, 어떤 관점과 구조를 선택할지, 어디서 깊이 들어가야 할지 판단하는 일은 여전히 사람의 몫임 진정 좋은 글은 분량에 걸맞은 실질적 기여가 있어야 하며, 독자가 시간을 투자할 가치가 있도록 해야 함 이 기준을 충족하는 것이 필자가 추구하는 목표임 생성일: 2025. 7. 10. 만다라트 보기: /view/C27D2ABB33BACB6B 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 지루한 코드로 10억 웹 요청 처리 - 만다라트 뷰

    이동됨 자유게시판 free
    1
    0 투표
    1 게시물
    6 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:11 이 만다라트는 "지루한 코드로 10억 웹 요청 처리"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 지루한 코드로 10억 웹 요청 처리 주제: Serving a billion web requests with boring code High level 2년 반에 걸쳐 미국 정부의 메디케어 플랜 비교·구매 웹사이트를 리드 개발함 일 평균 500만 API 요청을 처리, 평균 응답 속도는 10ms 미만, 95% 요청은 100ms 이하로 유지 장애 발생률이 매우 낮아 실제 엔지니어가 새벽에 호출된 사례는 한 손에 꼽을 정도 Postgres, golang, React 등 누구나 이해할 수 있는 검증된 기술로만 구성해, 꾸준히 안정적인 시스템을 구축함 Boring über alles 최우선 원칙은 '지루하고 검증된 기술' 만을 우선하는 것(** Choose Boring Technology**) 혁신 시도는 꼭 필요한 곳에서만 innovation token을 아껴서 사용 복잡하고 화려한 솔루션보다 안정적이고 명확한 기술과 프로세스를 선호 The boring bits Postgres: 데이터 저장의 핵심, 신뢰성과 확장성을 모두 만족. 복잡한 검색(페이시티드 검색 등)도 Postgres로 해결 golang: 빌드와 배포가 빠르고, 바이너리 산출물이 명확함. 에러 핸들링이 직관적이고, 새로운 팀원도 쉽게 적응 가능 React: SPA 프레임워크 중 가장 검증되어 있고, 팀원들이 이미 익숙했음. 접근성과 다양한 기기 지원도 중요한 고려 요소였음 장기적으로는 번들 크기와 속도 저하 이슈가 발생했지만, 당시 상황에서는 시간 내에 결과를 내기 위한 최적의 선택이었음 The innovation tokens Modular backend: 전체 백엔드를 마이크로서비스도, 모놀리식도 아닌 3개의 대형 모듈(druginfo, planinfo, beneinfo)로 구성 각 모듈은 별도의 Postgres DB를 사용하고, 데이터 공유는 오직 gRPC를 통해서만 이뤄짐 druginfo: 약국, 보험, 포장 등 조합이 기하급수적으로 늘어나는 약가 정보를 매우 정교하게 인덱싱하고, 복잡한 사전처리와 성능 최적화가 필요 planinfo: 매일 새로운 CMS 데이터를 수신해, DB 전체를 새로 만들어 사용함(불변성 유지) beneinfo: 실제 가입자 정보를 보관하는 유일한 부분으로, 민감한 PII(개인정보)는 최소한만 저장. 데이터 유출 리스크 최소화를 위해 설계와 운영에 신경 씀 gRPC: 모듈간 통신 인터페이스를 코드로 명확히 정의할 수 있는 장점. 자동화 도구와 연동성이 뛰어남 단, 빌드·툴링·디버깅은 복잡하고, JSON API 대비 직관성이 떨어지는 단점도 경험 grpc-gateway를 통해 웹클라이언트 지원 및 대량 트래픽을 무리 없이 처리함 Strict backwards compatibility API 및 데이터베이스의 하위 호환성 유지를 엄격하게 지킴 공개 API의 필드는 절대 삭제하지 않고, 보안 문제가 있지 않는 한 평생 유지 DB 컬럼도 추가는 자유롭지만 삭제는 여러 단계 검증(참조 제거→몇 주 대기→실제 삭제) 절차를 거침 이 규율이 높은 변화 속도와 안정적인 배포·운영의 핵심 기반이 됨 Faceted search ElasticSearch 대신 Postgres만으로 페이시티드 검색 구현 well-indexed plan 테이블에 조건을 조합하는 250줄 함수 하나로 모든 검색 로직을 처리 비즈니스 요구에 집중, 불필요한 복잡성 없이 단순하게 해결함 Database creation DB 스키마를 숫자가 붙은 .sql 파일로 관리, 순서대로 로딩하여 신뢰성 보장 planinfo/beneinfo DB는 매일 재생성, 마이그레이션 필요 없음. 버전 불일치 등 설정 오류 시 앱 자체를 아예 시작하지 않도록 설계 ETL 데이터 소스별 셸 스크립트로 S3에 적재 → cron으로 EC2 인스턴스가 최신 ETL 코드/데이터 가져와 신규 RDS DB 생성 Postgres의 COPY 구문을 적극 활용, INSERT 대신 대량 데이터 적재를 효율적으로 처리 매일 2~4시간이면 수억 행 데이터를 새 DB로 전환 가능 models xo 라이브러리로 DB 모델 자동 생성, 커스텀 템플릿으로 팀에 맞는 코드 생성 testing 가장 큰 실수는 sqlmock을 활용한 테스트를 과하게 만들어 데이터가 자주 바뀌는 상황에서 유지보수가 매우 번거로움 실제 불변 DB라면 실DB에 대한 테스트가 더 효율적이었을 것 Local database for development 각 테이블의 부분 데이터를 자동 생성하는 스크립트로, 개발자별로 작은 로컬 DB로 실제 데이터 기반 테스트와 개발 가능 DB가 커지기 전에 이런 도구를 마련하면 전체 팀 개발 효율이 극대화됨 Miscellaneous tooling 각종 운영·관측 자동화를 위해 CLI 도구를 셸 스크립트로 구현, 모든 유틸리티 기능을 하나로 모아 관리 splunk 로그를 Slack 명령어로 바로 그래프로 시각화하는 등 현장 중심의 도구를 적극 개발·활용 Logging 요청 진입 시점에 request id를 생성, 그 id가 모든 로그 컨텍스트에 붙어서 어디서든 추적 가능 zerolog로 안전하고 체계적인 로깅 설계 시스템 입구·퇴출, 예외 상황 등 중요 시점마다 필수 로그 남기기 Documentation GitHub markdown 문서를 sphinx-book-theme으로 변환해 위키북으로 운영 팀원 모두가 적극적으로 문서화에 기여, 한 곳에서 모든 시스템 문서를 찾을 수 있도록 함 뛰어난 문서화 문화가 팀의 성장과 유지보수, 신입 온보딩 효율을 크게 높임 Runtime integrations 클라이언트의 성능 저하 요청(분석 스크립트 삽입 등)은 최대한 설득해 최소화 쿼리도 브라우저 런타임이 아닌 빌드타임 처리로 전환해, 서비스 성능을 유지 실제론 고객 요청을 모두 막지는 못해, 일부는 성능 저하로 이어졌음 And more 기술 이외에도 긍정적이고 협력적인 팀 분위기와 강한 동기 부여가 대규모 시스템 성공의 진짜 원동력임을 강조 사소하지만 중요한 실무적 선택과 꾸준한 품질 관리의 힘을 실감한 사례였음 생성일: 2025. 7. 10. 만다라트 보기: /view/f473d0f283e52033 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • AI 온라인 공유 만다라트 생성기 개발 - 만다라트 뷰

    이동됨 AI와 함께 free
    1
    0 투표
    1 게시물
    10 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:11 이 만다라트는 "AI 온라인 공유 만다라트 생성기 개발"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: AI 온라인 공유 만다라트 생성기 개발 주제: 만다라트 생성기 - AI온라인 공유기능 이제 생성된 만다라트를 보실 수 있습니다. 복잡한 뉴스, 책정보 등등 생성하면 보기 좋게 정리가 됩니다. 고유 URL 을 붙이거나 몇가지 정리해야 할 부분이 있는데 이 프로그램은 원래 개인이 글쓰기 한 다음의 정보를 한 눈에 볼 수 있게 하는게 목적입니다. 스크린샷 2025-07-10 오전 10.45.21.png - 사실 소설의 한 페이지나 연재분량을 넣으면 어떤 일이 발생하고 있는지 바로 알 수 있습니다. 관계도 같은 부분도 작업중이며 소설, 캐릭터 생성도 준비중입니다. 단 gemeni API(무료) 를 입력하셔야 더 훌륭한 결과를 얻으실 수 있고 다른 사람과 함께 만다라트를 공유하여 데이터 낭비, 전력낭비를 줄이면 좋겠습니다. 참고로 기사가 있고 덧글을 다 긁어서 집어 넣으면 찬반에 대한 의견이 어떤 방식으로 이뤄지고 기사를 다양한 시각으로 볼 수 있습니다. 스크린샷 2025-07-10 오전 11.11.18.png https://mandala.a1bbs.com/view/C27D2ABB33BACB6B 제가 여러 아이디어를 만든 커뮤니티가 있었는데 AI가 도움이 될수도 있겠다 싶습니다. 다만 신뢰는 안하고 있습니다. ^^ 만다라트는 별도의 어플리케이션으로 개발되었으며 서버단 작업을 해서 공유하는 형태를 만든 이유는 혼자 만들어서 사용한 정보가 아깝기도 하고 무료로 제공되는 API를 잘 이용하면 진짜 AI강국이 되지 않을까요? 전국민이 구글 무료부분을 잘 사용하면 응?!? 저는 출판사를 하지만 책 읽는 방식을 아예 바꾸려고 이런 뷰어를 epub 으로 구현중입니다. 로컬에서 gemma 3 api를 직접 호출하게 해서 페이지별로 책을 더 재미있는 방식으로 보여주는 것을 상상하고 있습니다. 다른 프로그램은 더 많지만 우선 만다라트만 먼저 끝내구요~ 하이브리드 만다라트 생성기 Gemini 가 먼저 일처리를 하고 다시 Gemma3n:e4b 로 확장하는 하이브리드 방식으로 변경했습니다. 사무실 컴퓨터로 청크 해서 나눠 해설을 합니다. 상세페이지 생성기를 만들고 영상 확장 서평분석, 서지분석, 가격분석 등을 하고 있습니다. 스크린샷 2025-07-09 오후 1.19.58.png https://youtu.be/nmVQWiMuB1Q 도서정보와 과거 판매도서 이력을 추적해서 서평을 분석해서 영상으로 만드는게 요즘 제가 하고있는 일입니다. 사실 API 돈내고 쓰면 편해요 ^^ 생성일: 2025. 7. 10. 만다라트 보기: /view/a8394b3c723a084c 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!

4

온라인

26

사용자

6.9k

토픽

6.9k

게시물
  • 도서분석 출판 마케팅 서평단


  • 레고시리어스플레이, 비주얼씽킹, AI디자인씽킹