콘텐츠로 건너뛰기
  • AI 온라인 공유 만다라트 생성기 개발 - 만다라트 뷰

    이동됨 AI와 함께 free
    1
    0 투표
    1 게시물
    10 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:11 이 만다라트는 "AI 온라인 공유 만다라트 생성기 개발"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: AI 온라인 공유 만다라트 생성기 개발 주제: 만다라트 생성기 - AI온라인 공유기능 이제 생성된 만다라트를 보실 수 있습니다. 복잡한 뉴스, 책정보 등등 생성하면 보기 좋게 정리가 됩니다. 고유 URL 을 붙이거나 몇가지 정리해야 할 부분이 있는데 이 프로그램은 원래 개인이 글쓰기 한 다음의 정보를 한 눈에 볼 수 있게 하는게 목적입니다. 스크린샷 2025-07-10 오전 10.45.21.png - 사실 소설의 한 페이지나 연재분량을 넣으면 어떤 일이 발생하고 있는지 바로 알 수 있습니다. 관계도 같은 부분도 작업중이며 소설, 캐릭터 생성도 준비중입니다. 단 gemeni API(무료) 를 입력하셔야 더 훌륭한 결과를 얻으실 수 있고 다른 사람과 함께 만다라트를 공유하여 데이터 낭비, 전력낭비를 줄이면 좋겠습니다. 참고로 기사가 있고 덧글을 다 긁어서 집어 넣으면 찬반에 대한 의견이 어떤 방식으로 이뤄지고 기사를 다양한 시각으로 볼 수 있습니다. 스크린샷 2025-07-10 오전 11.11.18.png https://mandala.a1bbs.com/view/C27D2ABB33BACB6B 제가 여러 아이디어를 만든 커뮤니티가 있었는데 AI가 도움이 될수도 있겠다 싶습니다. 다만 신뢰는 안하고 있습니다. ^^ 만다라트는 별도의 어플리케이션으로 개발되었으며 서버단 작업을 해서 공유하는 형태를 만든 이유는 혼자 만들어서 사용한 정보가 아깝기도 하고 무료로 제공되는 API를 잘 이용하면 진짜 AI강국이 되지 않을까요? 전국민이 구글 무료부분을 잘 사용하면 응?!? 저는 출판사를 하지만 책 읽는 방식을 아예 바꾸려고 이런 뷰어를 epub 으로 구현중입니다. 로컬에서 gemma 3 api를 직접 호출하게 해서 페이지별로 책을 더 재미있는 방식으로 보여주는 것을 상상하고 있습니다. 다른 프로그램은 더 많지만 우선 만다라트만 먼저 끝내구요~ 하이브리드 만다라트 생성기 Gemini 가 먼저 일처리를 하고 다시 Gemma3n:e4b 로 확장하는 하이브리드 방식으로 변경했습니다. 사무실 컴퓨터로 청크 해서 나눠 해설을 합니다. 상세페이지 생성기를 만들고 영상 확장 서평분석, 서지분석, 가격분석 등을 하고 있습니다. 스크린샷 2025-07-09 오후 1.19.58.png https://youtu.be/nmVQWiMuB1Q 도서정보와 과거 판매도서 이력을 추적해서 서평을 분석해서 영상으로 만드는게 요즘 제가 하고있는 일입니다. 사실 API 돈내고 쓰면 편해요 ^^ 생성일: 2025. 7. 10. 만다라트 보기: /view/a8394b3c723a084c 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • Yes24 베스트셀러 분석 - 만다라트 뷰

    이동됨 AI와 함께 free
    1
    0 투표
    1 게시물
    9 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:10 이 만다라트는 "Yes24 베스트셀러 분석"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: Yes24 베스트셀러 분석 주제: 1 1 류수영의 평생 레시피 미리보기 오늘의책 [도서] 류수영의 평생 레시피 죽을 때까지 나를 먹여 살릴 ‘어남선생’의 쉽고 맛있는 집밥 류수영의 평생 레시피 새창이동 류수영 저 세미콜론 2025년 06월 구매혜택 [단독] 냉장고 마그넷+레시피 카드 3종 (포인트 차감) 10% 22,500원 포인트적립1,250원 판매지수 269,568 회원리뷰(47건) 리뷰 총점9.6 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #스타레시피 #유튜브인기레시피 #TV방영 #집밥레시피 이벤트 사은품 이달의 책 7월 : 산리오캐릭터즈 미니백 키링 (25.07.01 ~ 25.07.31) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 2 3 박곰희 연금 부자 수업 미리보기 오늘의책 [도서] 박곰희 연금 부자 수업 4개의 통장으로 월 300만 원 만들기 박곰희 연금 부자 수업 새창이동 박곰희 저 인플루엔셜 2025년 06월 구매혜택 [이달의 책 7월] 산리오캐릭터즈 미니백 키링(포인트 차감) 10% 18,900원 포인트적립1,050원 판매지수 105,639 회원리뷰(23건) 리뷰 총점10.0 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #똑똑하게투자하기 #노후대비 #이달의굿즈 이벤트 기획전 초대 [클래스24] 『박곰희 연금 부자 수업』 박곰희 저자 강연회 (25.06.24 ~ 25.07.18) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 3 2 혼모노 미리보기 오늘의책 [도서] 혼모노 혼모노 새창이동 성해나 저 창비 2025년 03월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 16,200원 포인트적립900원 판매지수 610,338 회원리뷰(253건) 리뷰 총점9.3 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #한국문학의미래가될젊은작가 #몰입하는법 #현실을그렸어요 #블랙코미디 이벤트 사은품 기획전 『2025 젊은작가상 수상작품집』 기획전 - 리무버블 스티커 (25.04.07 ~ 25.07.31) 관련상품 : eBook 14,400원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 4 1 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 상 미리보기 분철 [도서] 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 상 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 상 새창이동 최태성 저 이투스북 2024년 12월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 14,850원 포인트적립820원 판매지수 465,387 회원리뷰(126건) 리뷰 총점9.7 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #분철 이벤트 할인 기획전 [우쑤자료실] 한국사 공부를 쉽고 재미있게! (25.04.10 ~ 25.12.31) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 5 1 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 하 미리보기 분철 [도서] 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 하 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 하 새창이동 최태성 저 이투스북 2024년 12월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 14,400원 포인트적립800원 판매지수 438,105 회원리뷰(93건) 리뷰 총점9.7 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #분철 이벤트 할인 기획전 [우쑤자료실] 한국사 공부를 쉽고 재미있게! (25.04.10 ~ 25.12.31) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 6 안녕이라 그랬어 미리보기 오늘의책 [도서] 안녕이라 그랬어 [ 초판 한정 사인인쇄 양장본양장 ] 안녕이라 그랬어 새창이동 김애란 저 문학동네 2025년 06월 구매혜택 안녕 키링 + 어텐션북 + 북슬리브(포인트 차감) 10% 15,120원 포인트적립840원 판매지수 255,186 회원리뷰(51건) 리뷰 총점9.9 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #한국문학의미래가될젊은작가 #섬세한시선 이벤트 사은품 김애란 소설가 신작 단편소설집 『안녕이라 그랬어』 - 패브릭 북슬리브 (25.06.09 ~ 25.09.01) 관련상품 : eBook 10,620원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 7 모순 미리보기 [도서] 모순 양귀자 장편소설 [ 양장개정판 ] 모순 새창이동 양귀자 저 쓰다 2013년 04월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 11,700원 포인트적립650원 판매지수 589,581 회원리뷰(1,553건) 리뷰 총점9.6 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #예스미츠에소개된책 #스트레이키즈현진이읽은책 #내별의책장_스트레이키즈 #삶의의미 #삶을노래하다 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 8 1 첫 여름, 완주 미리보기 오늘의책 듣는 소설-01 [도서] 첫 여름, 완주 첫 여름, 완주 새창이동 김금희 저 무제 2025년 05월 구매혜택 [7월의 굿즈] 산리오캐릭터즈 북파우치/쇼퍼백/우양산 (포인트 차감) 10% 15,300원 포인트적립850원 판매지수 300,447 회원리뷰(197건) 리뷰 총점9.6 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #한국문학의미래가될젊은작가 #이달의굿즈 #유퀴즈온더블럭_자기님들 #무너지지마요 #일상의아름다움 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 관련상품 : eBook 12,000원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 9 1 부의 전략 수업 미리보기 오늘의책 [도서] 부의 전략 수업 돈에 휘둘리지 않고 살아남는 15가지 시스템 부의 전략 수업 새창이동 폴 포돌스키 저/고영훈 역 필름 2025년 05월 10% 17,820원 포인트적립990원 판매지수 62,136 회원리뷰(34건) 리뷰 총점9.5 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #크레마클럽에있어요 #재테크의기본 #재테크기초 관련상품 : eBook 13,900원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 10 청춘의 독서 미리보기 오늘의책 [도서] 청춘의 독서 세상을 바꾼 위험하고 위대한 생각들 [ 특별증보판양장 ] 청춘의 독서 새창이동 유시민 저 웅진지식하우스 2025년 04월 구매혜택 디즈니 피크닉 매트, 메모냥 마그넷 세트 (포인트 차감) 10% 17,010원 포인트적립940원 판매지수 595,608 회원리뷰(352건) 리뷰 총점9.3 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #크레마클럽에있어요 #독서처방전 #독서권장 #책에관한책 #독서법 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 관련상품 : eBook 13,300원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 11 1 2026 써니 행정법총론 기본서 미리보기 예약판매 분철 써니 행정법총론 [도서] 2026 써니 행정법총론 기본서 [ 전2권 ] 2026 써니 행정법총론 기본서 새창이동 박준철 편저 제이씨에듀 2025년 07월 구매혜택 노트/펜/포켓 스탠드 (포인트차감) 10% 38,700원 포인트적립2,150원 판매지수 23,460 7/15(화) 발송예정(예약판매) 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #공무원행정법 #분철 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 12 2 단 한 번의 삶 미리보기 오늘의책 [도서] 단 한 번의 삶 [ 양장 ] 단 한 번의 삶 새창이동 김영하 저 복복서가 2025년 04월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 15,120원 포인트적립840원 판매지수 382,683 회원리뷰(246건) 리뷰 총점9.1 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #인생이야기 #사유와감성 #작가의에세이 관련상품 : eBook 11,800원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 13 2 2025 큰별쌤 최태성의 별별한국사 기출 500제 한국사능력검정시험 심화(1,2,3급) 미리보기 분철 [도서] 2025 큰별쌤 최태성의 별별한국사 기출 500제 한국사능력검정시험 심화(1,2,3급) 2025 큰별쌤 최태성의 별별한국사 기출 500제 한국사능력검정시험 심화(1,2,3급) 새창이동 최태성 저 이투스북 2024년 12월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 17,550원 포인트적립970원 판매지수 252,834 회원리뷰(114건) 리뷰 총점9.9 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #분철 이벤트 할인 기획전 [우쑤자료실] 한국사 공부를 쉽고 재미있게! (25.04.10 ~ 25.12.31) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 14 2 소년이 온다 미리보기 강력추천 오늘의책 2024 노벨문학상 수상작가 [도서] 소년이 온다 [ 2024 노벨문학상 수상작가 ] 소년이 온다 새창이동 한강 저 창비 2014년 05월 구매혜택 [노벨문학상] 북파우치/문장노트(포인트 차감) 10% 13,500원 포인트적립750원 판매지수 3,132,789 회원리뷰(4,153건) 리뷰 총점9.7 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #해외문학상_우리작가 #노벨문학상수상작가 #가을에어울리는책 #알쓸범잡 #KBS우리시대의소설 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 관련상품 : eBook 12,000원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 15 2 ETS 토익 정기시험 기출문제집 1000 Vol. 4 RC 미리보기 분철 ETS 토익 정기시험 기출문제집 [도서] ETS 토익 정기시험 기출문제집 1000 Vol. 4 RC [ 무료 동영상 강의+기출어휘 단어장(PDF) ] ETS 토익 정기시험 기출문제집 1000 Vol. 4 RC 새창이동 ETS 저 YBM(와이비엠) 2023년 12월 구매혜택 기출문제/스티키(포인트차감) 10% 17,820원 포인트적립990원 판매지수 486,486 회원리뷰(466건) 리뷰 총점9.8 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #이달의굿즈 #분철 #신유형반영 #연습을실전처럼 #단기간고득점 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 16 3 ETS 토익 정기시험 기출문제집 1000 Vol. 4 LC 미리보기 분철 ETS 토익 정기시험 기출문제집 [도서] ETS 토익 정기시험 기출문제집 1000 Vol. 4 LC [ 무료 정기시험 성우 MP3+무료 동영상 강의 ] ETS 토익 정기시험 기출문제집 1000 Vol. 4 LC 새창이동 ETS 저 YBM(와이비엠) 2023년 12월 구매혜택 기출문제/스티키(포인트차감) 10% 17,820원 포인트적립990원 판매지수 465,783 회원리뷰(390건) 리뷰 총점9.8 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #이달의굿즈 #분철 #신유형반영 #연습을실전처럼 #단기간고득점 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 17 2 어른의 품격을 채우는 100일 필사 노트 미리보기 [도서] 어른의 품격을 채우는 100일 필사 노트 [ 양장 ] 어른의 품격을 채우는 100일 필사 노트 새창이동 김종원 저 청림Life 2025년 03월 구매혜택 [경제경영/자기계발] 멀티 북 파우치 / 금속 키링 (포인트 차감) 10% 18,000원 포인트적립1,000원 판매지수 290,499 회원리뷰(133건) 리뷰 총점9.8 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #나를잃지마 #품격있는삶 #필사 #필사연습 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 18 초역 부처의 말 미리보기 [도서] 2500년 동안 사랑받은 초역 부처의 말 초역 부처의 말 새창이동 코이케 류노스케 저/박재현 역 포레스트북스 2024년 05월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 16,020원 포인트적립890원 판매지수 497,124 회원리뷰(480건) 리뷰 총점9.4 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #삶의지혜 #위로와응원 #명상 #명상하며산다 #초기불교 관련상품 : eBook 12,460원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 19 4 해커스 토익 기출 VOCA (보카) 미리보기 분철 해커스 토익 [도서] 해커스 토익 기출 VOCA (보카) 주제별 연상암기로 토익 영단어 30일 완성! [ 최신 기출 어휘+출제포인트+필수 이디엄 표현 수록 & 단어암기 어플 제공 ] 해커스 토익 기출 VOCA (보카) 새창이동 David Cho 저 해커스어학연구소 2024년 08월 구매혜택 해커스 토익 FINAL 적중 모의고사 (포인트 차감) 10% 11,610원 포인트적립640원 판매지수 386,649 회원리뷰(1,104건) 리뷰 총점9.6 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #분철 #토익초보추천 #토익보카 #신유형반영 #너도나도보는토익기본서 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 20 1 어른의 행복은 조용하다 미리보기 [도서] 어른의 행복은 조용하다 어른의 행복은 조용하다 새창이동 태수 저 페이지2북스 2024년 11월 구매혜택 일러스트 패브릭 북파우치 (포인트 차감) 10% 16,020원 포인트적립890원 판매지수 471,288 회원리뷰(288건) 리뷰 총점9.5 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #행복해지고싶은당신에게 #행복의조건 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 관련상품 : eBook 12,500원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 21 똥볶이 할멈 7 미리보기 예약판매 [도서] 똥볶이 할멈 7 우리가 처음 만난 기적 [ 양장 ] 똥볶이 할멈 7 새창이동 강효미 글/김무연 그림 슈크림북 2025년 07월 구매혜택 [단독] 『똥볶이 할멈 7』구매 시, 리무버블 스티커 / 기대평 1,000P 10% 12,600원 포인트적립700원 판매지수 6,630 7/11(금) 발송예정(예약판매) #고양이를부탁해 #판타지 #우리동네히어로 #k-히어로 #어린이인기도서 이벤트 사은품 기획전 어린이 지금 이 책, 좋은 책의 발견! : 이달의 추천 도서 & 시리즈 신간까지! (25.06.18 ~ 25.07.18) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 22 19 단 한 줄만 내 마음에 새긴다고 해도 미리보기 [도서] 단 한 줄만 내 마음에 새긴다고 해도 나민애의 인생 시 필사 노트 단 한 줄만 내 마음에 새긴다고 해도 새창이동 나민애 저 포레스트북스 2025년 06월 구매혜택 디즈니 피크닉 매트, 메모냥 마그넷 세트 (포인트 차감) 10% 21,420원 포인트적립1,190원 판매지수 56,976 회원리뷰(51건) 리뷰 총점9.8 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #명작필사 #필사시집 #필사연습 #필사 이벤트 사은품 이달의 책 7월 : 산리오캐릭터즈 미니백 키링 (25.07.01 ~ 25.07.31) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 23 9 고양이 해결사 깜냥 8 미리보기 [도서] 고양이 해결사 깜냥 8 신나는 학교를 만들어라! [ 양장 ] 고양이 해결사 깜냥 8 새창이동 홍민정 글/김재희 그림 창비 2025년 06월 구매혜택 [단독] 깜냥 & 하품 발매트 (2종 중 택1, 포인트차감) 10% 12,600원 포인트적립700원 판매지수 93,576 회원리뷰(8건) 리뷰 총점10.0 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #귀염뽀짝캐릭터 #학교생활 #어린이인기도서 #이달의굿즈 이벤트 사은품 기획전 어린이 지금 이 책, 좋은 책의 발견! : 이달의 추천 도서 & 시리즈 신간까지! (25.06.18 ~ 25.07.18) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 24 13 장미와 나이프 미리보기 [도서] 장미와 나이프 [ 개정판 ] 장미와 나이프 새창이동 히가시노 게이고 저/김윤경 역 반타 2025년 06월 10% 16,200원 포인트적립900원 판매지수 92,382 회원리뷰(70건) 리뷰 총점9.8 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 관련상품 : eBook 15,000원 생성일: 2025. 7. 10. 만다라트 보기: /view/84a8675ac3929a41 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • Yes24 베스트셀러 분석 - 만다라트 뷰

    이동됨 AI와 함께 free
    1
    0 투표
    1 게시물
    9 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:10 이 만다라트는 "Yes24 베스트셀러 분석"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: Yes24 베스트셀러 분석 주제: 1 1 류수영의 평생 레시피 미리보기 오늘의책 [도서] 류수영의 평생 레시피 죽을 때까지 나를 먹여 살릴 ‘어남선생’의 쉽고 맛있는 집밥 류수영의 평생 레시피 새창이동 류수영 저 세미콜론 2025년 06월 구매혜택 [단독] 냉장고 마그넷+레시피 카드 3종 (포인트 차감) 10% 22,500원 포인트적립1,250원 판매지수 269,568 회원리뷰(47건) 리뷰 총점9.6 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #스타레시피 #유튜브인기레시피 #TV방영 #집밥레시피 이벤트 사은품 이달의 책 7월 : 산리오캐릭터즈 미니백 키링 (25.07.01 ~ 25.07.31) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 2 3 박곰희 연금 부자 수업 미리보기 오늘의책 [도서] 박곰희 연금 부자 수업 4개의 통장으로 월 300만 원 만들기 박곰희 연금 부자 수업 새창이동 박곰희 저 인플루엔셜 2025년 06월 구매혜택 [이달의 책 7월] 산리오캐릭터즈 미니백 키링(포인트 차감) 10% 18,900원 포인트적립1,050원 판매지수 105,639 회원리뷰(23건) 리뷰 총점10.0 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #똑똑하게투자하기 #노후대비 #이달의굿즈 이벤트 기획전 초대 [클래스24] 『박곰희 연금 부자 수업』 박곰희 저자 강연회 (25.06.24 ~ 25.07.18) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 3 2 혼모노 미리보기 오늘의책 [도서] 혼모노 혼모노 새창이동 성해나 저 창비 2025년 03월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 16,200원 포인트적립900원 판매지수 610,338 회원리뷰(253건) 리뷰 총점9.3 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #한국문학의미래가될젊은작가 #몰입하는법 #현실을그렸어요 #블랙코미디 이벤트 사은품 기획전 『2025 젊은작가상 수상작품집』 기획전 - 리무버블 스티커 (25.04.07 ~ 25.07.31) 관련상품 : eBook 14,400원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 4 1 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 상 미리보기 분철 [도서] 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 상 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 상 새창이동 최태성 저 이투스북 2024년 12월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 14,850원 포인트적립820원 판매지수 465,387 회원리뷰(126건) 리뷰 총점9.7 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #분철 이벤트 할인 기획전 [우쑤자료실] 한국사 공부를 쉽고 재미있게! (25.04.10 ~ 25.12.31) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 5 1 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 하 미리보기 분철 [도서] 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 하 2025 큰별쌤 최태성의 별별한국사 한국사능력검정시험 심화(1,2,3급) 하 새창이동 최태성 저 이투스북 2024년 12월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 14,400원 포인트적립800원 판매지수 438,105 회원리뷰(93건) 리뷰 총점9.7 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #분철 이벤트 할인 기획전 [우쑤자료실] 한국사 공부를 쉽고 재미있게! (25.04.10 ~ 25.12.31) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 6 안녕이라 그랬어 미리보기 오늘의책 [도서] 안녕이라 그랬어 [ 초판 한정 사인인쇄 양장본양장 ] 안녕이라 그랬어 새창이동 김애란 저 문학동네 2025년 06월 구매혜택 안녕 키링 + 어텐션북 + 북슬리브(포인트 차감) 10% 15,120원 포인트적립840원 판매지수 255,186 회원리뷰(51건) 리뷰 총점9.9 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #한국문학의미래가될젊은작가 #섬세한시선 이벤트 사은품 김애란 소설가 신작 단편소설집 『안녕이라 그랬어』 - 패브릭 북슬리브 (25.06.09 ~ 25.09.01) 관련상품 : eBook 10,620원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 7 모순 미리보기 [도서] 모순 양귀자 장편소설 [ 양장개정판 ] 모순 새창이동 양귀자 저 쓰다 2013년 04월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 11,700원 포인트적립650원 판매지수 589,581 회원리뷰(1,553건) 리뷰 총점9.6 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #예스미츠에소개된책 #스트레이키즈현진이읽은책 #내별의책장_스트레이키즈 #삶의의미 #삶을노래하다 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 8 1 첫 여름, 완주 미리보기 오늘의책 듣는 소설-01 [도서] 첫 여름, 완주 첫 여름, 완주 새창이동 김금희 저 무제 2025년 05월 구매혜택 [7월의 굿즈] 산리오캐릭터즈 북파우치/쇼퍼백/우양산 (포인트 차감) 10% 15,300원 포인트적립850원 판매지수 300,447 회원리뷰(197건) 리뷰 총점9.6 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #한국문학의미래가될젊은작가 #이달의굿즈 #유퀴즈온더블럭_자기님들 #무너지지마요 #일상의아름다움 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 관련상품 : eBook 12,000원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 9 1 부의 전략 수업 미리보기 오늘의책 [도서] 부의 전략 수업 돈에 휘둘리지 않고 살아남는 15가지 시스템 부의 전략 수업 새창이동 폴 포돌스키 저/고영훈 역 필름 2025년 05월 10% 17,820원 포인트적립990원 판매지수 62,136 회원리뷰(34건) 리뷰 총점9.5 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #크레마클럽에있어요 #재테크의기본 #재테크기초 관련상품 : eBook 13,900원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 10 청춘의 독서 미리보기 오늘의책 [도서] 청춘의 독서 세상을 바꾼 위험하고 위대한 생각들 [ 특별증보판양장 ] 청춘의 독서 새창이동 유시민 저 웅진지식하우스 2025년 04월 구매혜택 디즈니 피크닉 매트, 메모냥 마그넷 세트 (포인트 차감) 10% 17,010원 포인트적립940원 판매지수 595,608 회원리뷰(352건) 리뷰 총점9.3 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #크레마클럽에있어요 #독서처방전 #독서권장 #책에관한책 #독서법 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 관련상품 : eBook 13,300원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 11 1 2026 써니 행정법총론 기본서 미리보기 예약판매 분철 써니 행정법총론 [도서] 2026 써니 행정법총론 기본서 [ 전2권 ] 2026 써니 행정법총론 기본서 새창이동 박준철 편저 제이씨에듀 2025년 07월 구매혜택 노트/펜/포켓 스탠드 (포인트차감) 10% 38,700원 포인트적립2,150원 판매지수 23,460 7/15(화) 발송예정(예약판매) 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #공무원행정법 #분철 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 12 2 단 한 번의 삶 미리보기 오늘의책 [도서] 단 한 번의 삶 [ 양장 ] 단 한 번의 삶 새창이동 김영하 저 복복서가 2025년 04월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 15,120원 포인트적립840원 판매지수 382,683 회원리뷰(246건) 리뷰 총점9.1 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #인생이야기 #사유와감성 #작가의에세이 관련상품 : eBook 11,800원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 13 2 2025 큰별쌤 최태성의 별별한국사 기출 500제 한국사능력검정시험 심화(1,2,3급) 미리보기 분철 [도서] 2025 큰별쌤 최태성의 별별한국사 기출 500제 한국사능력검정시험 심화(1,2,3급) 2025 큰별쌤 최태성의 별별한국사 기출 500제 한국사능력검정시험 심화(1,2,3급) 새창이동 최태성 저 이투스북 2024년 12월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 17,550원 포인트적립970원 판매지수 252,834 회원리뷰(114건) 리뷰 총점9.9 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #분철 이벤트 할인 기획전 [우쑤자료실] 한국사 공부를 쉽고 재미있게! (25.04.10 ~ 25.12.31) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 14 2 소년이 온다 미리보기 강력추천 오늘의책 2024 노벨문학상 수상작가 [도서] 소년이 온다 [ 2024 노벨문학상 수상작가 ] 소년이 온다 새창이동 한강 저 창비 2014년 05월 구매혜택 [노벨문학상] 북파우치/문장노트(포인트 차감) 10% 13,500원 포인트적립750원 판매지수 3,132,789 회원리뷰(4,153건) 리뷰 총점9.7 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #해외문학상_우리작가 #노벨문학상수상작가 #가을에어울리는책 #알쓸범잡 #KBS우리시대의소설 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 관련상품 : eBook 12,000원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 15 2 ETS 토익 정기시험 기출문제집 1000 Vol. 4 RC 미리보기 분철 ETS 토익 정기시험 기출문제집 [도서] ETS 토익 정기시험 기출문제집 1000 Vol. 4 RC [ 무료 동영상 강의+기출어휘 단어장(PDF) ] ETS 토익 정기시험 기출문제집 1000 Vol. 4 RC 새창이동 ETS 저 YBM(와이비엠) 2023년 12월 구매혜택 기출문제/스티키(포인트차감) 10% 17,820원 포인트적립990원 판매지수 486,486 회원리뷰(466건) 리뷰 총점9.8 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #이달의굿즈 #분철 #신유형반영 #연습을실전처럼 #단기간고득점 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 16 3 ETS 토익 정기시험 기출문제집 1000 Vol. 4 LC 미리보기 분철 ETS 토익 정기시험 기출문제집 [도서] ETS 토익 정기시험 기출문제집 1000 Vol. 4 LC [ 무료 정기시험 성우 MP3+무료 동영상 강의 ] ETS 토익 정기시험 기출문제집 1000 Vol. 4 LC 새창이동 ETS 저 YBM(와이비엠) 2023년 12월 구매혜택 기출문제/스티키(포인트차감) 10% 17,820원 포인트적립990원 판매지수 465,783 회원리뷰(390건) 리뷰 총점9.8 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #이달의굿즈 #분철 #신유형반영 #연습을실전처럼 #단기간고득점 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 17 2 어른의 품격을 채우는 100일 필사 노트 미리보기 [도서] 어른의 품격을 채우는 100일 필사 노트 [ 양장 ] 어른의 품격을 채우는 100일 필사 노트 새창이동 김종원 저 청림Life 2025년 03월 구매혜택 [경제경영/자기계발] 멀티 북 파우치 / 금속 키링 (포인트 차감) 10% 18,000원 포인트적립1,000원 판매지수 290,499 회원리뷰(133건) 리뷰 총점9.8 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #나를잃지마 #품격있는삶 #필사 #필사연습 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 18 초역 부처의 말 미리보기 [도서] 2500년 동안 사랑받은 초역 부처의 말 초역 부처의 말 새창이동 코이케 류노스케 저/박재현 역 포레스트북스 2024년 05월 구매혜택 [2025 상반기 베스트] 핸디 선풍기ㆍ노트북 파우치 (포인트 차감) 10% 16,020원 포인트적립890원 판매지수 497,124 회원리뷰(480건) 리뷰 총점9.4 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #삶의지혜 #위로와응원 #명상 #명상하며산다 #초기불교 관련상품 : eBook 12,460원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 19 4 해커스 토익 기출 VOCA (보카) 미리보기 분철 해커스 토익 [도서] 해커스 토익 기출 VOCA (보카) 주제별 연상암기로 토익 영단어 30일 완성! [ 최신 기출 어휘+출제포인트+필수 이디엄 표현 수록 & 단어암기 어플 제공 ] 해커스 토익 기출 VOCA (보카) 새창이동 David Cho 저 해커스어학연구소 2024년 08월 구매혜택 해커스 토익 FINAL 적중 모의고사 (포인트 차감) 10% 11,610원 포인트적립640원 판매지수 386,649 회원리뷰(1,104건) 리뷰 총점9.6 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 분철서비스 이용이 가능한 도서입니다. 자세히 보기 #분철 #토익초보추천 #토익보카 #신유형반영 #너도나도보는토익기본서 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 20 1 어른의 행복은 조용하다 미리보기 [도서] 어른의 행복은 조용하다 어른의 행복은 조용하다 새창이동 태수 저 페이지2북스 2024년 11월 구매혜택 일러스트 패브릭 북파우치 (포인트 차감) 10% 16,020원 포인트적립890원 판매지수 471,288 회원리뷰(288건) 리뷰 총점9.5 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #행복해지고싶은당신에게 #행복의조건 이벤트 사은품 [2025 상반기 결산] 베스트셀러 TREND 5 (25.06.10 ~ 25.07.15) 관련상품 : eBook 12,500원 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 21 똥볶이 할멈 7 미리보기 예약판매 [도서] 똥볶이 할멈 7 우리가 처음 만난 기적 [ 양장 ] 똥볶이 할멈 7 새창이동 강효미 글/김무연 그림 슈크림북 2025년 07월 구매혜택 [단독] 『똥볶이 할멈 7』구매 시, 리무버블 스티커 / 기대평 1,000P 10% 12,600원 포인트적립700원 판매지수 6,630 7/11(금) 발송예정(예약판매) #고양이를부탁해 #판타지 #우리동네히어로 #k-히어로 #어린이인기도서 이벤트 사은품 기획전 어린이 지금 이 책, 좋은 책의 발견! : 이달의 추천 도서 & 시리즈 신간까지! (25.06.18 ~ 25.07.18) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 22 19 단 한 줄만 내 마음에 새긴다고 해도 미리보기 [도서] 단 한 줄만 내 마음에 새긴다고 해도 나민애의 인생 시 필사 노트 단 한 줄만 내 마음에 새긴다고 해도 새창이동 나민애 저 포레스트북스 2025년 06월 구매혜택 디즈니 피크닉 매트, 메모냥 마그넷 세트 (포인트 차감) 10% 21,420원 포인트적립1,190원 판매지수 56,976 회원리뷰(51건) 리뷰 총점9.8 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #명작필사 #필사시집 #필사연습 #필사 이벤트 사은품 이달의 책 7월 : 산리오캐릭터즈 미니백 키링 (25.07.01 ~ 25.07.31) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 23 9 고양이 해결사 깜냥 8 미리보기 [도서] 고양이 해결사 깜냥 8 신나는 학교를 만들어라! [ 양장 ] 고양이 해결사 깜냥 8 새창이동 홍민정 글/김재희 그림 창비 2025년 06월 구매혜택 [단독] 깜냥 & 하품 발매트 (2종 중 택1, 포인트차감) 10% 12,600원 포인트적립700원 판매지수 93,576 회원리뷰(8건) 리뷰 총점10.0 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 #귀염뽀짝캐릭터 #학교생활 #어린이인기도서 #이달의굿즈 이벤트 사은품 기획전 어린이 지금 이 책, 좋은 책의 발견! : 이달의 추천 도서 & 시리즈 신간까지! (25.06.18 ~ 25.07.18) 1 수량감소수량증가 카트에 넣기 바로구매 리스트에 넣기 24 13 장미와 나이프 미리보기 [도서] 장미와 나이프 [ 개정판 ] 장미와 나이프 새창이동 히가시노 게이고 저/김윤경 역 반타 2025년 06월 10% 16,200원 포인트적립900원 판매지수 92,382 회원리뷰(70건) 리뷰 총점9.8 정보 더 보기/감추기 21시까지 주문하면 내일 아침 7시 전 (7/11, 금) 도착예정 관련상품 : eBook 15,000원 생성일: 2025. 7. 10. 만다라트 보기: /view/84a8675ac3929a41 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • Mi:dm 2.0 모델의 특징 및 차별점 - 만다라트 뷰

    AI와 함께 free
    1
    0 투표
    1 게시물
    4 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:10 이 만다라트는 "Mi:dm 2.0 모델의 특징 및 차별점"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: Mi:dm 2.0 모델의 특징 및 차별점 주제: "Mi:dm"은 한국 사회의 언어/문화적 특성을 반영한 상업적 활용이 가능한 오픈소스 모델 고품질 한국어 데이터 선별과 합성 데이터 생성, 커리큘럼 러닝, 한국어 특화된 고유 토크나이저 등 다층적 최적화 전략을 사용 온디바이스용 mini(2.3B), 성능과 효율의 밸런스 base(11B), 프론티어급 pro(41B, 공개예정)의 3가지 모델 Mi:dm 2.0 Mini (2.3B): 경량화 모델로, 임베디드 환경과 특수 목적에 최적화 Mi:dm 2.0 Base (11.5B): 대규모 범용 모델, Depth-up Scaling 기법으로 기존 8B 모델을 심층화하여 성능 강화 Base, Mini 모두 32K 토큰 입력 지원 KMMLU, HAERAE 등 한국어 벤치마크에서 최고 수준의 성능을 보이며, 연구/상업적 사용 모두 자유로운 MIT 라이선스로 공개 데이터 구성 및 전략 한국어 고품질 문서 확보에 중점, 맥락성, 가독성, 비유해성 기준으로 문서 선별 합성 데이터(번역, 키워드 기반 교재 생성, Chain-of-Thought 등)를 활용하여 도메인 다양성 확보 커리큘럼 러닝과 도메인 밸런싱으로 훈련 데이터의 불균형 해소 한국어 최적화 토크나이저로 압축 효율과 언어 구조 반영 강화 데이터 분류 체계 언어, 도메인, 데이터 소스, 표현/스타일 등 다차원 분류 체계 적용 6개 주요 도메인(인문, STEM, 응용과학, 건강/식품, 생활/문화, 기타)와 20개 하위 도메인 85.7% 이상을 자연적(organic) 데이터로 구성, 14%는 합성 데이터 품질 관리 파이프라인 8단계 대용량 웹문서 필터링: 중복제거, 휴리스틱, perplexity, 문자 손상/수정, 모델 기반 품질 필터, 유해성 필터, 라인 중복, PII 비식별화 등 각 소스별로 별도 정제 및 규칙 적용(예: 뉴스, 법률문서, 학술논문 등) 합성 데이터 생성 STEM, 경제 등 저커버리지 분야는 고신뢰 오픈소스 데이터를 시드로, 한국어 교재/설명/문제 등 합성하여 데이터 강화 불용(부적격) 웹문서도 핵심 주제만 추출·재작성하여 활용 영어 웹문서의 구조적 다양성을 한국어로 변환·확장하여 장문의 QA·작문 데이터 확보 Chain-of-Thought 데이터로 수학·코드 등 단계별 추론 학습 강화 모델 아키텍처 및 훈련 Transformer 디코더-only 구조 Base: 8B 모델 → Depth-up Scaling(32→48층) → 11.5B로 확장, 고품질 데이터로 2단계 연속 학습 Mini: Base의 지식을 width pruning과 다단계 distillation으로 경량화, 효율적 추론 가능 Long-context 학습으로 최대 32,768 토큰 입력 지원 GQA, SiLU, RoPE 등 최신 기술 반영 사용 후기 및 소개 글들 한국형 AI 모델 : KT 믿음 2.0 사용 후기 KT가 만든 한국어 AI, Midm 2.0 소개 KT 의 한국형 AI 믿음 2.0 을 사용해보다 KT의 믿:음 2.0 소개 페이지 KT의 믿:음 1.0 출시때 홍보자료 - 믿음(Mi:dm), 이성과 감성을 넘어 개성을 표현하다 생성일: 2025. 7. 10. 만다라트 보기: /view/4c4ff9cc453a26c6 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 0 투표
    1 게시물
    3 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:10 이 만다라트는 "AI 디지털교과서(AIDT) 법적 지위 변경 논란 및 영향"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: AI 디지털교과서(AIDT) 법적 지위 변경 논란 및 영향 주제: 법적 지위 '교과서'서 제외…현장 수용성·접속률 낮아 "재검토 불가피" 주장도 인공지능 디지털교과서(AIDT)의 법적 지위가 교과서에서 교육자료로 변경되며 국책 사업으로 추진되던 'AI 기반 수업 혁신'이 구조적 전환의 갈림길에 섰다. 국회 교육위원회는 10일 전체회의에서 더불어민주당과 조국혁신당 주도로 '초·중등교육법 개정안'을 단독 표결 처리했다. 이 법안은 AIDT의 법적 지위를 '교과서'에서 '교육자료'로 낮추는 내용을 담고 있다. 국민의힘 측은 표결 직전 퇴장했으나 민주당은 오는 23일 본회의 최종 통과를 추진 중이다. 이번 개정안은 민주당이 야당 시절 본회의에서 통과시킨 바 있으나 윤석열 정부의 거부권 행사로 무산됐던 법안이다. 정권 교체 이후 여당이 다시 핵심 입법 과제로 상정하며 속도전에 나선 것이다. 지난 1월 진행된 천재교과서 AIDT 박람회 (사진=천재교과서) 더민주 "품질 미달, 교과서 아냐" vs 국힘 "정책 파기…산업계도 집단 반발" 이번 결정의 계기로 민주당은 AIDT가 막대한 예산에도 불구하고 낮은 품질과 현장 수용성을 보여줬다고 판단했다. 학생 접속률 저조, 교사 사용률 미비, 지역별 격차 등 실사용 데이터를 문제 삼았으며 이를 '교과서' 지위로 유지하는 데 더는 정당성이 없다고 밝혔다. 국민의힘은 이를 두고 '교실 혁명 폐기'라고 규정하며 정책의 일방적 중단을 강하게 비판했다. 특히 지방이나 소외 지역의 교육 기회 확대를 목표로 한 정책 취지를 무시한 결정이라며 정권 교체 후 하루아침에 정책 기반이 무너졌다고 주장했다. 지난 1월 개최된 AI 디지털교과서 지위 유지 촉구 기자간담회 (사진=지디넷코리아) 관련 업계 역시 즉각 공동 대응에 나섰다. 디지털교과서 발행사 14곳과 교과서발전위원회는 2조원 이상 투입된 공교육 인프라가 위협받고 있다며 입법 철회를 요구했다. 이들은 구조조정과 고용 축소 현실을 전하며 약 3만6천 명의 종사자가 영향을 받는다고 호소했다. 에듀테크 업체 구름과 콴다를 포함한 7개사도 공동 행동에 동참했다. 발행사들과 함께 오는 11일 오전 서울 여의도에서 기자회견을 열고 이번 개정안이 헌법상 평등 교육권과 산업 생태계를 훼손한다고 규정할 계획이다. 정책 변화에 엇갈린 업계 반응…"구조 복잡" vs "현장 전환 기회" AIDT의 방향성과 활용 가능성을 두고 갑론을박이 이어지는 가운데 업계에서는 기술적 설계 자체에 구조적 한계가 있었다는 지적도 제기됐다. 단순한 콘텐츠 플랫폼이 아니라 여러 주체가 동시에 상호작용해야 하는 복합 시스템으로 출발했는데 초기부터 과도하게 복잡했다는 평가다. 한 업계 관계자는 "AIDT는 사실상 콘텐츠가 아니라 운영체계에 가깝다"며 "학생, 교사, 학부모, 교육청 등 서로 다른 역할과 기술 이해도를 가진 집단이 동시에 작동해야 하는 시스템이었다"고 말했다. 이어 "그 안에서 오히려 가장 쉬운 게 AI였다"고 덧붙였다. 정책 일관성의 부재를 지적하는 목소리도 있다. 디지털교과서 정책은 지난 1990년대 후반부터 이어졌지만 정권 교체 때마다 기조가 바뀌면서 현장과 산업계에 반복된 혼란만 남겼다는 평가다. AIDT의 방향성과 활용 가능성을 두고 갑론을박이 이어지는 가운데 업계에서는 기술적 설계 자체에 구조적 한계가 있었다는 지적도 제기됐다. (사진=챗GPT 이미지 생성기) 또다른 업계 관계자는 "전자교과서부터 AIDT로 이어지는 지난 30년간의 정책 궤적은 거의 모든 단계에서 정권 교체와 맞물려 있다"며 "정책의 방향성보다 정권의 성향에 따라 교육 기술의 프레임이 계속 바뀌는 구조"라고 말했다. 다만 일각에서는 이번 결정이 오히려 기술 중심 정책의 부담을 덜고 현장 친화적 경쟁 구조로의 전환을 가능하게 할 것이라는 시각도 있다. 표준화된 교과서 틀을 벗어나 다양한 솔루션이 교사 중심으로 활용되는 환경이 조성될 수 있다는 기대다. 한 에듀테크 기업 관계자는 "AI를 기존 교과서 체계에 억지로 끼워 넣는 건 애초에 구조적으로 무리였다"며 "이번 결정으로 에듀테크 업계가 각자 잘하는 방식으로 수업을 지원할 수 있는 기회를 얻게 됐다"고 말했다. 이어 "AIDT에 매달렸던 기업들에겐 허탈한 일이겠지만 이제는 자유 경쟁의 시간"이라고 덧붙였다. 생성일: 2025. 7. 10. 만다라트 보기: /view/e2addb366af32ad0 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 매일 두뇌 트레이닝: 퍼즐로 뇌 건강 지키기 - 만다라트 뷰

    퍼즐 free
    1
    0 투표
    1 게시물
    10 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:10 이 만다라트는 "매일 두뇌 트레이닝: 퍼즐로 뇌 건강 지키기"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 매일 두뇌 트레이닝: 퍼즐로 뇌 건강 지키기 주제: 매일매일 두뇌 업그레이드! 전통적인 미로찾기와 스도쿠가 이렇게 전 세계적인 사랑을 받는 이유는, 수학적인 사고 개발은 물론 집중력, 논리력, 추리력을 키워주며 두뇌 건강을 지켜주기 때문입니다. 미로찾기는 고도의 시각 집중력을 극대화 하고 스도쿠는 논리사고력을 발달시켜 퍼즐 마니아들의 기대를 충족시켜 주는 최고의 퍼즐입니다. 문제를 풀어가는 능력과 귀납법, 연역법을 활용하는 논리사고력, 집중력, 창조력, 집중력을 키워주는 스도쿠를 통해, 건강을 위해 매일 몸을 단련하는 것처럼 이제 두뇌 훈련 트레이닝을 해보세요! 매일매일 두뇌 트레이닝 - 기적의 수학퍼즐 어린이 스도쿠 + 미로찾기는 기존 스도쿠에 익숙한 퍼즐 마니아에게도 만만치 않은 도전이 될 것이지만 그만큼 쾌감과 기쁨도 높아질 것입니다. 총300문제의 다양한 모양의 미로, 미궁 그리고 스도쿠를 풀어낼 수 있다면, 당신은 진정한 퍼즐챔피언이라 자신해도 좋을 것입니다. * 출처 : 예스24 기본 미로찾기는 삼각형을 출발점으로 원형을 찾아가는 퍼즐입니다. 6X6 스도쿠는 1부터 6의 숫자가 가로, 세로, 3X2의 박스에 겹치지 않고 들어갑니다. 8X8 스도쿠는 1부터 8의 숫자가 가로, 세로, 4X2의 박스에 겹치지 않고 들어갑니다. 육각 미궁은 삼각형의 출발점으로 가운데 원형을 찾아가는 퍼즐입니다. 삼각 미궁은 삼각형의 출발점으로 가운데 원형을 찾아가는 퍼즐입니다. 원형 미궁은 삼각형의 출발점으로 가운데 원형을 찾아가는 퍼즐입니다. 정답 생성일: 2025. 7. 10. 만다라트 보기: /view/c47592a9d25f69b3 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 리박스쿨 탄생의 배경과 실체 - 만다라트 뷰

    출판이야기 free
    1
    0 투표
    1 게시물
    6 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:10 이 만다라트는 "리박스쿨 탄생의 배경과 실체"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 리박스쿨 탄생의 배경과 실체 주제: 리박스쿨 뿌리① 리박스쿨 탄생은 개인의 일탈이 아니었다 입력2025.07.10. 오후 5:20 기사원문 박종화 기자 전혁수 기자 73 21 본문 요약봇 텍스트 음성 변환 서비스 사용하기 글자 크기 변경하기 SNS 보내기 인쇄하기 이승만과 박정희의 생애와 업적을 바로 세우겠다는 명분으로 설립된 역사 교육 단체 리박스쿨이, 실제로는 늘봄학교 강사 취업과 장학금을 미끼로 댓글공작팀을 운영해왔다는 사실을 뉴스타파가 처음 보도한 뒤 사회적 파장이 지속되고 있다. 오늘(10일) 국회 교육위원회는 리박스쿨 관련 청문회를 열었다. 리박스쿨은 ‘이승만·박정희의 역사를 다시 세운다’는 목표로 학교 현장에 침투했다. 초등학교 1~2학년 방과후 수업인 늘봄학교 강사를 포함해 일일 체험학습 강사, 역사 현장학습 강사 등 강사들을 교육하고 민간 자격증을 발급한 뒤 이들을 학교로 파견했다. 일각에선 리박스쿨을 손효숙 대표 개인적 일탈로 치부한다. 그러나 리박스쿨이 탄생한 과정을 살펴 보면, 리박스쿨은 하나의 결과물에 불과했다. 리박스쿨, 이희범 자유연대 지원 위해 탄생 손효숙 대표는 2017년 6월 프리덤칼리지장학회를 설립했다. 장학회 홈페이지에 따르면, 이 단체는 "자유우파의 신념과 가치관을 지닌 우파 청년인재를 양성"하는 곳이다. 손 대표는 장학회를 통해 우파 활동가를 지원하는 일을 하다가 이승만·박정희 강좌를 진행하게 되면서 리박스쿨을 만들었다고 한다. 손효숙 대표가 리박스쿨 탄생 배경을 설명하는 유튜브 영상. (출처: 안중규TV) 손효숙 대표가 리박스쿨 탄생 배경을 설명하는 유튜브 영상. (출처: 안중규TV) 그런데 손 대표가 리박스쿨을 운영하던 서울 종로구 제일빌딩 사무실 같은 층에 자유민주국민연합, 자유연대 등 보수단체들이 우후죽순 모여있었던 사실이 확인된다. 이들 단체의 대표는 보수 시민단체의 대부로 불리는 이희범 씨다. 리박스쿨과 같은 층에 있었던 자유민주국민연합은 2017년 이 씨가 박근혜 탄핵 후 뿔뿔이 흩어진 보수 단체를 집결시키기 위한 플랫폼 단체였다. 손 대표에 따르면, 리박스쿨·프리덤칼리지장학회는 이 씨가 사무실을 지원해줬다고 한다. 애초에 손효숙 대표가 프리덤칼리지장학회를 설립한 이유도 이 씨의 단체인 '자유연대'를 돕기 위해서였다. 손 대표는 "자유연대는 김상진, 안정권 등의 청년들을 연합해서 이끌고 있는 단체인데, 김상진은 프리덤칼리지1호 장학생"이라고 밝혔다. 손 대표는 "이런 청년들이 활동할 수 있도록 생계비와 활동비를 지원해야 한다. 그래서 장학금 사업(프리덤칼리지장학회)을 시작하게 된 것"이라며 "장학금 기금이 들어오면 자유연대가 잘 운영되도록 지원하고 있다. 자유연대가 야성이라면 프리덤칼리지장학회는 지성"이라고 주장했다. 이에 따라 리박스쿨은 이희범 씨가 설립한 플랫폼 단체 자유민주국민연합 산하에서 자유연대를 지원하기 위해 설립된 단체라 볼 수 있다. 2018년, 자유연대가 서울 종로빌딩으로 이사하기 전, 제일빌딩에 사무실을 두고 있는 모습. 손효숙이 대표로 있는 프리덤칼리지장학회와 대한민국역사지킴이도 함께 모여 있었다. 2018년, 자유연대가 서울 종로빌딩으로 이사하기 전, 제일빌딩에 사무실을 두고 있는 모습. 손효숙이 대표로 있는 프리덤칼리지장학회와 대한민국역사지킴이도 함께 모여 있었다. 이희범 정체는 박근혜 청와대·국정원이 밀어준 관변단체 핵심 간부 이희범은 국정원, 청와대 등의 돈을 받고 관변단체 활동을 해온 보수단체의 핵심 간부였다. 그는 공교육살리기학부모연합(공학연), 애국단체총협의회(애총) 사무총장으로 활동하면서 뉴라이트 국정 역사교과서 채택, 전교조 반대 등 관변단체 역할을 자처했던 인물이다. 국정 역사교과서 찬성을 주장한 것은 이승만·박정희를 미화하는 왜곡된 역사를 교육하는 것이 목표인 리박스쿨의 활동 방향과 유사하다. 뉴스타파가 원세훈 국정원장 판결문을 확인한 결과, 공학연은 2011년~2013년에 국정원의 지시를 받은 GS·LG로부터 2억6000만 원을 받았다. 이듬해인 2014년 1월 이 씨는 역사교과서대책범국민운동본부라는 단체를 조직했다. 또 김기춘 전 청와대 비서실장 판결문에 따르면, 역시 이 씨가 사무총장이었던 애총은 2014년~2015년까지 청와대의 지시를 받은 전국경제인연합회로부터 여러 차례에 걸쳐 약 2억4000만 원 상당의 후원금을 받았다. 당시 청와대 측 인사는 전경련에 김기춘 당시 비서실장이 반드시 챙겨야할 단체로 애총을 콕 집어 이야기 했다고 한다. 공교육학부모살리기국민연합(공학연)이 전교조 교사 등을 고발한다며 고발장을 접수하는 모습. 왼쪽이 이희범 공학연 사무총장. 공교육학부모살리기국민연합(공학연)이 전교조 교사 등을 고발한다며 고발장을 접수하는 모습. 왼쪽이 이희범 공학연 사무총장. 전학연은 학생인권조례 반대, 교육감 직선제 폐지, 무상급식 반대 등 보수 교육 운동을 이어갔다. 이들은 ‘페미니즘 사상 주입과 동성애를 미화하는 공교육을 중단하라’고 주장한다. 2017년 2월에는 이희범을 필두로 서울 용산 소재 한 고등학교 앞에서 전학연 회원 300여명이 집회를 열기도 했다. 이 학교 교장이 “박근혜 탄핵은 음모”라고 주장했는데 이를 지지하기 위해서였다. 전학연은 노벨문학상을 받은 한강 작가의 도서 채식주의자가 “청소년에게 유해한 내용을 담고 있다”며 학교와 공공 도서관에 비치되면 안 된다고 주장하는 단체다. 이와 같이 리박스쿨은 손효숙 대표의 개인적인 일탈로 탄생한 단체가 아니다. 2014년 박근혜 정권의 국정교과서 여론작업에 앞장섰던 이희범의 단체들이 이합집산을 거듭하며 끈질기게 살아 남아 탄생시킨 결과물이 바로 리박스쿨이다. 이희범 자유연대 대표는 리박스쿨과의 관계를 부인하며 손 대표에 대해 “평범한 아줌마 그 이상도 이하도 아니다”고 답했다. 이는 손효숙 대표가 뉴스타파에 보내온 입장과 동일하다. 생성일: 2025. 7. 10. 만다라트 보기: /view/4543406bc8739de7 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 0 투표
    1 게시물
    7 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:10 이 만다라트는 "요약 개요 과도한 JavaScript 중심 개발, 웹을 망가뜨리다"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 요약 개요 과도한 JavaScript 중심 개발, 웹을 망가뜨리다 한글 번역본은 아래와 같습니다. https://junghan92.medium.com/번역-자바�%…아래는 게시글에 대한 댓글 반응을 5가지 유형으로 분류한 요약입니다: 1. 전면 동의 및 지지 주요 특징: 글의 주장에 전폭적으로 동의하며, 복잡한 JS 스택의 문제를 인정함. 의견 예시: “마침내 누가 할 말을 해줬다.” “현실을 직시한 훌륭한 글이다.” “웹 성능과 접근성은 필수다.” 2. 프레임워크 남용에 대한 우려 주요 특징: React, Angular 등 프레임워크의 과도한 사용을 비판하며, 단순한 기술로 충분하다는 의견. 의견 예시: “React는 블로그에 필요 없다.” “Vanilla JS면 대부분 해결된다.” “Svelte, Eleventy 등 경량 대안이 더 낫다.” 3. 부분 동의 + 현실 고려 주요 특징: 주장에 공감하지만, 복잡성이 불가피하거나 필요하다고 보는 현실적 입장도 존재. 의견 예시: “복잡성이 문제지만 일부 상황에선 불가피하다.” “협업과 유지보수에는 프레임워크도 필요하다.” “HTML/CSS도 불완전해서 JS를 쓸 수밖에 없다.” 4. 개발 문화 및 산업 구조 비판 주요 특징: 프레임워크 과잉은 단순한 기술 문제가 아니라, 채용·문화·마케팅 구조의 산물이라 지적. 의견 예시: “프레임워크는 이력서용 기술이 됐다.” “개발자는 회사 요구를 따를 뿐이다.” “이건 조직문화와 고용시장의 문제다.” 5. 비판 또는 반대 주요 특징: 글의 전제에 동의하지 않거나, 일방적인 주장이라고 비판. 의견 예시: “웹이 느려졌다는 근거가 없다.” “글이 지나치게 편파적이다.” “WordPress로 JS 문제를 해결하는 건 오히려 후퇴다.” 생성일: 2025. 7. 11. 만다라트 보기: /view/894b66ed02fb52ce 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 0 투표
    1 게시물
    8 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:10 이 만다라트는 "과도한 JavaScript 중심 개발, 웹을 망가뜨리다2"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 과도한 JavaScript 중심 개발, 웹을 망가뜨리다2 한글 번역본은 아래와 같습니다. https://junghan92.medium.com/번역-자바�%…아래는 게시글에 대한 댓글 반응을 5가지 유형으로 분류한 요약입니다: 1. 전면 동의 및 지지 주요 특징: 글의 주장에 전폭적으로 동의하며, 복잡한 JS 스택의 문제를 인정함. 의견 예시: “마침내 누가 할 말을 해줬다.” “현실을 직시한 훌륭한 글이다.” “웹 성능과 접근성은 필수다.” 2. 프레임워크 남용에 대한 우려 주요 특징: React, Angular 등 프레임워크의 과도한 사용을 비판하며, 단순한 기술로 충분하다는 의견. 의견 예시: “React는 블로그에 필요 없다.” “Vanilla JS면 대부분 해결된다.” “Svelte, Eleventy 등 경량 대안이 더 낫다.” 3. 부분 동의 + 현실 고려 주요 특징: 주장에 공감하지만, 복잡성이 불가피하거나 필요하다고 보는 현실적 입장도 존재. 의견 예시: “복잡성이 문제지만 일부 상황에선 불가피하다.” “협업과 유지보수에는 프레임워크도 필요하다.” “HTML/CSS도 불완전해서 JS를 쓸 수밖에 없다.” 4. 개발 문화 및 산업 구조 비판 주요 특징: 프레임워크 과잉은 단순한 기술 문제가 아니라, 채용·문화·마케팅 구조의 산물이라 지적. 의견 예시: “프레임워크는 이력서용 기술이 됐다.” “개발자는 회사 요구를 따를 뿐이다.” “이건 조직문화와 고용시장의 문제다.” 5. 비판 또는 반대 주요 특징: 글의 전제에 동의하지 않거나, 일방적인 주장이라고 비판. 의견 예시: “웹이 느려졌다는 근거가 없다.” “글이 지나치게 편파적이다.” “WordPress로 JS 문제를 해결하는 건 오히려 후퇴다.” 생성일: 2025. 7. 11. 만다라트 보기: /view/9f423451c3da8cf0 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 0 투표
    1 게시물
    6 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:10 이 만다라트는 "SETI@home 논문 《The Astronomical Journal》 게재 및 의미"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: SETI@home 논문 《The Astronomical Journal》 게재 및 의미 요즘 SETI 보드게임 때문에 SETI 관련된 것들을 찾아보기도 했는데 이렇게 뉴스로 보니 또 반갑네요 SETI 보드게임 정말 재미납니다. 보드게임 잘 모르시는 분들에게도 추천하고 싶어요. SETI 자체를 모르는 젊은 친구들한테 프로젝트 소개부터 하니 배경도 흥미롭고, 게임 테마도 찰떡입니다 . 2025년작 보드게임이 현재 전체 보드게임 순위중 43위까지 올라갔으니, 조만간 10위 안쪽에 들거 같아요. 생성일: 2025. 7. 11. 만다라트 보기: /view/49524f552988d358 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 지속 가능한 성장을 위한 GTM 전략 - 만다라트 뷰

    마케팅 free
    1
    0 투표
    1 게시물
    12 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:10 이 만다라트는 "지속 가능한 성장을 위한 GTM 전략"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 지속 가능한 성장을 위한 GTM 전략 주제: 예전에 누가 그랬는데 너는 기획도하고 개발도하고 마케팅도 하는데 넌 도대체 뭐니? 전문성이 뭐야? 이런 질문에 사실 저도 잘 모르겠었어요. 저는 그냥 제가 할 수 있는 걸 다 했을 뿐이거든요. GTM을 위해 다 하는데? 정도로 대답합니다. 원래 GTM(Go-To-Market)은 제품이나 서비스를 시장에 출시하고, 고객이 이를 성공적으로 채택하게 만드는 전 과정을 말합니다. 이를 담당하는 GTM 매니저는 제품을 개발하는 단계부터 실제로 고객의 손에 닿기까지 모든 일을 합니다. 작은 팀이 크게 성장하는 비밀 카카오브레인과 넥슨 코리아에서 일하면서 분명 멋진 프로젝트도 진행했고, 동료들도 훌륭했지만, 무언가 부족하다는 느낌을 지울 수 없었죠. 사실 저는 고민이 많았습니다. 무엇보다 '성장'이란 단어를 말하면서도, 제품의 실제 성장이 피부로 잘 와 닿지 않았습니다. 내가 만드는 것이 정말 고객에게 가치를 주고 있을까? 커리어에서 의미 있는 성장을 만들어내고 있을까? Notion에서 배운 진짜 성장의 경험 그러던 중, Notion과 일하면서 제 관점이 완전히 바뀌었습니다. 글로벌에서 수천만 명의 사용자가 있는 제품이 어떻게 만들어지고, 어떻게 월 반복 매출(MRR)을 높이며, 적은 인력으로 최대한의 효율을 만들어낼 수 있는지 배웠습니다. Notion은 단순히 많은 사람을 쓰는 회사가 아니었습니다. 명확한 가치, 잘 다듬어진 제품, 그리고 그것을 믿고 사용하는 사용자가 있었죠. 이 경험을 통해 저는 커리어에서 가장 중요한 점을 깨달았습니다. "큰 조직이 아니라, 제품과 사용자의 관계에 집중해야 한다." Gamma에 합류한 이유, 그리고 결과 이 깨달음을 가지고 Gamma에 합류했습니다. 그리고 2년만에 ARR 5천만 달러를 달성하고 15개월 연속 흑자를 유지하고 있습니다. Gamma는 작지만 강력한 팀이었고, 저는 이곳에서 시니어 GTM(Go-To-Market) 매니저로 일하게 되었습니다. 단지 35명의 인원으로 5천만 사용자, 그리고 연매출(ARR) 5천만 달러(약 650억 원)를 기록하는 놀라운 성장세였습니다. Gamma의 빠른 성장 뒤엔 다음과 같은 핵심 전략이 있었습니다. 기존 GTM Manager에서 이번에 Senior GTM Strategy Manager로 한 계단 올라섰습니다. 1. 사용자 중심 가격 전략 (Van Westendorp) 우리는 가격을 정할 때 절대 추측하지 않았습니다. Gamma는 Van Westendorp 방법론을 통해 사용자들이 "얼마를 지불할 준비가 되었는지" 정확하게 파악하고 그에 맞춰 가격을 책정했습니다. 덕분에 초기부터 탄탄한 수익 구조가 만들어졌고, 이후 2년 동안 한 번도 가격을 바꾸지 않아도 안정적 성장을 유지할 수 있었습니다. 가격은 고객에게 전하는 신호입니다. 정확한 가격 설정은 제품과 사용자 간 신뢰를 만듭니다. 2. AI 기반, 최소한의 인력으로 최대한의 성장 Gamma는 AI 기반 프레젠테이션 도구를 만듭니다. 제품 자체가 스스로 영업과 마케팅을 해줍니다. 우리의 Go-To-Market 전략은 간단했습니다. 사용자가 직접 제품의 가치를 느끼고, 스스로 제품을 추천하고, 새로운 사용자를 이끌어옵니다. 덕분에 35명의 직원으로도 5천만 명의 사용자를 관리할 수 있었습니다. 이러한 전략은 Notion에서 본 것과도 비슷했습니다. 사용자가 제품의 가치를 체험하게 하면, 그 사용자가 스스로 영업 사원이 됩니다. 3. 직원당 매출이라는 새로운 지표 Gamma에서 가장 중시하는 지표는 직원당 매출(revenue per employee)입니다. 단순히 회사의 크기, 직원의 수가 아닌, 각 직원이 실제로 회사에 기여하는 매출과 성장을 측정합니다. 우리가 채용할 때마다 던지는 질문은 항상 같습니다. "이 사람이 오면, 우리 팀 전체가 몇 배로 더 성장할 수 있을까?" Gamma는 직원을 단순히 추가하는 것이 아니라, 전체 역량을 곱셈(multiplier)으로 증폭시키는 사람만을 뽑았습니다. 레니 프로덕트레터 : Small-company employees are doing the best 4. 지속 가능한 흑자, 그리고 선택의 자유 Gamma는 총 2,300만 달러(약 300억 원)의 투자만 받고, 15개월 연속 흑자를 유지하고 있습니다. 덕분에 우리는 성장과 수익성 사이에서 타협하지 않습니다. 돈이 떨어질 걱정 없이, 정말로 제품과 사용자에게 가장 옳은 결정을 내릴 수 있습니다. 성장만을 좇는 회사가 아닌, 성장과 수익성을 모두 잡는 Gamma만의 전략입니다. 강력한 제품과 팀이 전부 입니다. 과거 대기업에서의 경험과 Notion의 글로벌 성장 전략을 Gamma에 성공적으로 적용하며, 저는 개인적으로도 더 큰 성장과 만족을 얻고 있습니다. 큰 조직, 많은 리소스가 있다고 반드시 더 크게 성장하는 건 아닙니다. 투자 많이 받는게 능사가 아닙니다. 투자금이 계속 필요한 상태라면 무언가 잘못되고 있다는 신호일 수 있습니다. 제 편협한 경험이지만 Notion과 Gamma, Anysphere 모두 오히려 투자자들이 투자를 하려고 해도 거절하거나 다음 라운드에서 벨류 측정을 다시하는 방식으로 진행했습니다. 뻔한 이야기 같지만, "사용자와 제품 간의 관계"를 명확히 하고, 이를 중심으로 지속적으로 개선하며, AI 같은 강력한 도구로 효율을 극대화하는 회사가 앞으로 더 큰 성장을 만들어 갈 것입니다. 2025년동안은 저는 대한민국에서 원격형태로 일을 합니다. GTM 전략에 대해 고민하고 있거나 해결방법에 대한 도움이 필요하시면 언제든 연락주세요. 예전에 SNS에 작성도 했지만 개인적으로 국내 스타트업/제품 들 중에 내수가 아닌 해외를 바라보면 가능성이 몇배는 증가할 가능성이 높다고 생각합니다. 생성일: 2025. 7. 12. 만다라트 보기: /view/0d626f382db5064b 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • AI 코딩 도구의 생산성 역효과 연구 - 만다라트 뷰

    AI와 함께 free
    1
    0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:09 이 만다라트는 "AI 코딩 도구의 생산성 역효과 연구"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: AI 코딩 도구의 생산성 역효과 연구 Hacker News 의견 Simon Willison의 댓글: 전체 논문은 요약본에서 빠진 세부 내용이 많음 논문 링크 제 개인적인 생각으로는 LLM 기반 AI 도구에서 실질적인 생산성 향상을 얻으려면 사람들이 예상하는 것보다 훨씬 더 가파른 학습 곡선이 존재함 이번 연구엔 다양한 AI 도구 활용 경험을 가진 16명이 참여했으며, 56%는 Cursor를 처음 써봤고, 주로 Cursor에 대한 연구였음 각 참가자는 총 약 15개의 이슈를 다뤘으며, 이슈별로 AI 사용 가능/불가가 무작위로 지정되었음 즉, 한 개발자가 AI가 허용된 과제와 허용되지 않은 과제를 섞어서 진행했음 참가자 중 1/4만 성능이 향상되었고 3/4는 성능이 저하됨 AI 사용 상위권은 Cursor를 50시간 넘게 써본 사람이었음 연구진도 Cursor 경험이 충분한 개발자는 성능 향상이 있었다고 인정함 내 직감으로는, 이 논문은 AI 협업 개발에서 학습 곡선이 높기 때문에, 실무에서 기존 워크플로우에 곧바로 섞으면 오히려 성능이 저하됨을 보여줬다고 생각함 LLM에 대해 “너가 제대로 못 써서 그래”라는 흔한 반응이 있는데, 이건 너무 책임을 사용자에게 떠넘기는 변명 같음 대부분의 기술 제품에서는, 사용자가 가치를 느끼지 못한다면 제품의 설계 자체가 잘못된 거라고 생각함 AI에는 왜 이런 논리가 적용되지 않는지 의문임 Simon에게 감사, 그리고 논문을 꼼꼼히 읽어줘서 고마움 - OS 프로젝트 팬임 몇가지 중요한 포인트를 짚고 싶음 1) 기존 연구 중 일부는 도구 경험이 적더라도 성능 향상을 보임, 즉 “가파른 학습곡선” 이론만으로 이번 결과가 다 설명되지는 않음 2) 연구 전 참가자의 90% 이상이 LLM 프롬팅 경험이 있었고, 프롬팅만이 주요 스킬로 여겨짐. VSCode 사용에 익숙하면 Cursor도 쉽게 쓸 수 있다는 게 정설이었음 3) 모두 AI에 익숙했다면 AI 없는 상황에서 오히려 더 못할 수 있음(적어도 나는 공감함), 오히려 이렇게 되면 AI가 더 나은 것처럼 보이는 착시 현상이 감점 효과 4) 경험 정보는 미리 예측 전문가들과 공유, 그럼에도 불구하고 예측가들은 생산성 향상 기대치를 지나치게 높게 잡았음 5) 수백 시간의 사용에 의한 롱테일 스킬이 실제로 존재할 수 있음, 본 연구에서는 이러한 부분까지 말하기 힘듦 논문이 놀라운 결과를 주니 읽은 사람이 한가지 요인을 뽑아서 “이 것 때문이다!”라고 쉽게 결론짓기 쉬움 실제로는 복합적인 원인일 수 있음(최소 5가지, 최대 9가지는 배제 불가, 11쪽 표 참조) 한가지 정말 중요한 시사점: 개발자의 자기 보고 만족감은 실제와의 간극이 심했고, 이는 사용하는 툴의 종류와 무관함 생산성 측정에는 현장에서의 실제 데이터가 꼭 필요함(논문 C.2.7 참고: “평균 이하의 AI 도구 활용” 섹션에서 자세히 다룸) 참가자 75%가 LLM 경험이 있음에도 AI 사용 시 작업 속도가 오히려 느려졌다로 해석할 수 있는데, 하나는 LLM 학습곡선이 매우 가파르다는 해석, 또 하나는 현재 LLM의 실제 프로그래밍 보조 효율이 과대평가되어 있다는 점임 사람들이 일관되게 성능 예측을 착각하고 있음 LLM을 잘 다루게 되어도 본인이 작성한 코드에 대한 이해도가 떨어질 수 있음 개발자는 시간이 갈수록 코드에 정통해지지만, LLM은 오히려 점점 안 좋아질 수 있음 LLM으로 빠르게 코드를 생성할 수 있지만, 충분히 신경 쓰지 않으면 코드에 대한 숙련도가 축적되지 않음 초반에는 경쾌하게 빠른 개발이 되지만, 막상 뒷단에선 이해가 부족하고 LLM도 초기엔 쓸만하다가 점점 개선이 안 되어, 어느 순간 LLM도 그 사용자도 감당 못하는 난장판 코드가 됨 유혹을 피하면서 LLM이 좀 더 깔끔한 코드를 내도록 끈질기게 관리하고, 본인도 코드를 꼭 공부해야 한다고 생각함 스스로 이해하려는 노력이 필요함 AI 도구로 인해 생산성이 높아진 사람도 있고 아닌 사람도 있는 걸 볼 수 있음 내 추측으론, 긴 텍스트나 코드를 빠르게 읽어낼 수 있는 사람이 상당한 이점을 가짐 쓸모없는 제안을 빨리 알아채고 좋은 답을 얻을 때까지 반복하는 능력이 매우 중요함 빠른 스캐닝 능력은 경력자와 상관관계가 있지만, 의외로 신입 중에도 이게 빠른 사람이 있음 검색 능력이 뛰어난 사람이 LLM 활용에서도 유리할 수 있음, 구글링 능력과 비슷한 맥락으로 보임 80/20 법칙을 다시 떠올리게 됨 - 전체 작업의 80%를 20% 시간 내 해결해주고 나머지 20%를 위해 80% 시간을 소모함 항상 “거의 다 왔다”는 느낌이 있어서 매몰비용 오류에 빠지기 쉬움 최근 시도해본 방법으론, AI를 “해결사”가 아니라 “마찰 제거자”로 활용하는 방식이었음 프로그래밍은 내가 직접 하면서, 사소하게 까먹은 문법 같은 것만 AI에 물어서 작업 속도를 높임 직접적인 코드 전체 제안은 거의 안 봄 항상 스스로 생각하면서 코드를 작성해, 이해도와 실력 저하를 막음 예전에는 80% 작업에 80% 노력, 남은 20%에도 또 80% 노력이 들어가는 역-파레토 방식임 “작은 장애물”만 해결하는 AI 활용에 동의함 어제도 자바 stream API로 List 처리하면서 ConcurrentOperationsException 때문에 애먹었음 직접 메서드 작성하다가 안 풀려서 AI에 “스레드 안전한 리스트 변환 메서드” 맡겼더니 해당 API에 이미 내장 메서드가 있다고 알려줌 이런 잡다한 문제엔 AI가 최고임 - 복잡하지만 정의가 명확할 때 Stack Overflow를 좀 더 강력하게 쓸 때 특히 유용함, 내가 해야 할 일을 대략은 아는데 구체적으로 환경에 맞춰 어떻게 할지 모를 때, 그리고 디버깅이나 러버 덕킹에도 도움 됨 “마지막 20%를 위해 80% 시간을 소모한다”는 게 AI 도입 전에도 내 경험이었음 초기에 걸리는 시간만 줄여도 좋음 관련 경험자로부터 들었던 최고의 AI 평가는 “내 기술의 90%가 무가치해졌고, 나머지 10%는 천 배 더 중요해졌다”는 것임, 과장이 있지만 핵심은 마음에 듦 “항상 거의 다 됐다”는 착각 때문에 오히려 시간 낭비가 유발됨 AI가 뭔가 유용해 보이도록 만드는 데 특화되어서, 진짜 생산성 향상인지 판별하려면 높은 수준의 비판적 사고가 필요함 기존 코드베이스에 기능을 추가할 때 특히 유용함, “기존 검색 파라미터 외에 foo를 추가해야 한다”거나 “x 관련된 코드를 제거해달라” 같은 작업에서 좋음 HN 유저들에게, 논문 저자임 - 오래된 HN 사용자이고 오늘 댓글에 질문/피드백 달리면 최대한 답변해주고 있음 시간 없다면 논문 전체 대신 소개 블로그 포스트나 x.com의 발표 스레드를 추천함 논문의 방법론과 저자님의 소통 방식이 매우 프로페셔널하고 인상 깊음, 좋은 연구임 이 연구는 클릭베이트 없이 솔직하게 연구 결과를 제시하고, 읽기 쉽게 잘 정리되어서 최고의 연구 중 하나라고 생각함 AI로 처리하는 티켓이 정말 AI에 적합한 유형이었는지 고려했나요? “이 티켓 AI로 처리해봐”라는 식이 현실적이긴 하지만 비효율적일 수도 있음 AI에 적합하게 쓰면 정말 한몫하는데, 오히려 역효과인 경우도 많음 연구 참가자들이 충분한 AI 경험이 있었다면 이 구분을 해냈겠지만, 논문을 읽으면서 그 여부가 명확하지 않음 가능한 한 익명 처리된 원시 데이터셋 공개나, 최소한 개발자별 작업 소요 절대 시간 정보를 논문에 추가해줄 수 있는지 궁금함 Cursor 경험이 많은 참가자가 실제로 다른 사람보다 빠른지, 아니면 원래 느린 사람이라 AI로 더 큰 상승 효과를 얻었는지 궁금함 Hawthorne effect(관찰자 효과)까지 고려한 진짜 좋은 실험적 평가를 볼 수 있어 기쁨 (논문은 안 읽고 포스트만 봄) 주관적 피로도(subjective fatigue)가 AI가 더 빠르다고 오해하는 원인을 설명해주는 지표로 측정했는지 궁금함 개발자에서 관리자 전환 후 뇌가 피곤한 상황에선 AI가 더 편해서 좋음 이 연구 결과, 특히 “개발자들은 AI가 속도를 24% 올릴 것으로 기대했으나, 실제론 느려졌음에도 경험 후에도 20% 빨라졌다고 믿음” 부분이 매우 흥미로움. 이렇게 실제와 인식의 간극이 드라마틱하게 큰 이유가 뭘까? 혹시 뇌가 ‘정신적 노력’을 시간의 경험으로 착각해서 그런 게 아닌지도 궁금함 근거는 없지만 무서운 생각이 있음: 코딩할 때 AI와의 상호작용이 마치 소셜미디어 도파민 루프와 비슷하게 뇌를 자극하는 것 아닐까(정도는 다르긴 해도) AI가 반복적으로 답을 제시하면서 두뇌가 긍정적 평가를 받는 것처럼 느끼게 되고, 그래서 개발자가 AI를 실제보다 더 긍정적으로 평가하는 현상이 생기는 것 아닐지? 혹시 이게 중독 현상까지 일으킨다면, 실제로 생산성 효과를 과대평가하게 되는 것 아닐지? 이 현상은 시장에서 많은 사람들이 AI 도구를 실제보다 더 뛰어나게 믿도록 만드는 거대한 캠페인 결과일 수도 있음 경제 전문가, ML 전문가 그룹 자체가 AI 회사 이해관계자와 겹치고, 경영진이 그걸 곧이곧대로 받아들여 큰 성과를 약속함 그게 결국 기반 기대치를 전체적으로 올려버리는데, 경험 많은 개발자에게도 영향을 끼침 경험적으로 입증하기 어렵지만, AI 생산성에 대한 집단적 착각이 넓게 퍼진 이유일 수 있음 HN 댓글의 많은 AI 열성팬도 이 현상에 빠져있을 가능성을 궁금해함 실제로 스스로 성능을 측정하지 않는 한, AI가 정말 본인 생산성을 올리고 있는지 미심쩍음 가끔 정반대의 경험을 하기도 함 오늘 Claude code로 예제 데모 앱 코드를 만들려고 해봤는데, 구경하면서는 멋지고 SF 같아서 재밌었지만 15분만에 정신이 멍해지고 지루해짐 “개발자들은 AI가 24% 더 빠르길 기대했고, 실제로 느려졌음에도 20% 더 빨라진 것 같다고 믿었다”는 걸 보면, 여기엔 두 가지 문제가 있다고 느낌 하나는 동일 인물이 같은 맥락에서 AI로 했을 때와 안 했을 때 걸리는 시간을 제대로 비교하기 힘듦 또 다른 하나는 PR 오픈/머지까지 걸리는 기간 같은 표면적 지표로 AI 효율을 측정하기 쉬운데, 실제로 AI 도입하면 리팩토링, 테스트, 이슈 해결 등 후처리에 더 많은 시간이 배분됨 “PR이 빨리 열렸다”만 보고 AI가 빠르다 착각하기 쉬움, 하지만 향후 작업이 늘어나는 걸 간과하기 쉬움 특정 기술이나 관행이 생산성에 미치는 영향은 측정이 정말 어려움 자기 보고(anecdote)만 믿고 결론내리는 건 위험하다고 봄, 누구든 쉽게 자기환각에 빠질 수 있으니까 연구 자체도 한계 인정하고 있으니, 생산성 관련 논의엔 큰 오차범위를 의식해야 함 AI라는 기술은 살면서 본 것 중 제일 이상함, 단편 사례나 의심스런 벤치마크로부터 인과관계를 읽어내는 건 거의 운세풀이 같음 논문에서는 AI 허용/비허용 상황에서 PR 품질 저하가 관찰되지 않았음 참가자들 대부분은 리포지토리 기준에 익숙하고, ‘대충 제출해서 PR 띄우기’ 스타일이 아님 연구 내 PR의 중간 리뷰 시간은 1분 정도임 작성자의 말대로 시간 사용 방식은 완전히 달라짐 논문 10쪽에 AI 사용/미사용별 시간 분포가 나와있으니 참고 바람, AI 활용 시 코딩 시간은 줄고 AI랑 상호작용 시간은 늘어남 “동일인이 동일 맥락에서 AI로, 혹은 AI 없이 작업할 때 각각 걸린 시간 차이”를 정확히 아는 건 불가능하다는 지적에 대해, 실험 설계상 무작위 할당(random assignment)을 통해 AI 그룹과 비AI 그룹 효과를 분리함 개인, 상황, 환경 등의 차이는 무작위 처리로 상쇄시킴 표본과 효과 크기만 크면 통계적으로 의미있는 차이를 뽑아낼 수 있음 Figure 21을 보면 초기 구현(PR까지 걸린 시간) 자체도 증가했고, PR 리뷰 후 시간이 더 늘어나긴 했어도 전체적으론 큰 영향은 없어 보임 Figure 18에서 확인할 수 있듯 실코딩 시간은 줄었지만, 프롬프트 작성과 결과 대기, 출력 검토 등으로 절감 효과가 상쇄됨 5분 이하 단순 작업은 오히려 LLM 활용을 안하는 게 더 나았을 수도 있음 각 워크플로우별 PR 내용을 비교해보고 싶음 Copilot은 내가 직접 할 때보다 더 많은 코드를 제안하는데, 불필요한 체크나 반복, 추상화 없이 코드량이 많아지는 경우가 많음 내 개인적인 가설은, LLM이 너무 많은 코드를 써내는 모습을 보면 문제 해결에 얼마나 오래 걸릴지 체감이 왜곡되는 것 같음 LLM을 활용해 대규모 코드베이스에서 작업할 때 진짜 어려운 점은, 해야 할 작업을 정확히 묘사하는 것임 수많은 코드 상호작용 속 이슈를 설명하는 데만 오히려 손으로 직접 처리하는 것보다 오래 걸릴 때가 많음, 반면 신규 프로젝트에서 보일러플레이트 코드 만들 때는 LLM과 가장 잘 맞는 것 같음 나도 같은 경험임 Knuth가 말하듯 코드의 본질은 코드 자체뿐 아니라 개발자의 머릿속에도 존재함 모든 맥락을 정확히 LLM에 전달하지 않는 한, 몇 년간 쌓인 개념과 전략을 다 쏟아낼 수 없음 참가 개발자 모집비만 300 x 246 = 약 73K를 써놓고 논문은 학술지에 실리지도, 동료 검토도 없음 논문은 겉으론 정돈돼보이고 AI 생성스럽진 않지만 어떻게 이런 자금이 가능했는지 궁금함 가장 큰 재정지원은 The Audacious Project였고, 공식 발표 통해 확인 가능함 또 2025년 4월까지 AI 회사에서 받은 평가 대가가 없다고 웹사이트 각주에 명시돼있음 회사들은 이런 류의 ‘화이트페이퍼’를 자주 냄 기술 보고, 정책 제안, 홍보물의 결합 형태임 학술지, 동료 리뷰 유무만 따지는 건 의미가 없다고 봄 과학은 누가 출판하든 중요한 게 아니라 재현과 반복 성과가 핵심임 심리학의 재현 위기 사례처럼, 저널 등재 자체가 신뢰성을 담보하지 않음 대부분의 나라에선 연구에 공적 지원금이 있음, 미국은 과거에 더 지원했으나 근래엔 대폭 삭감되었음 재단 소개 페이지를 보면 AI 회사, 정부 등 다양한 곳에서 자금을 받는 듯함 취미 OSS 프로젝트에서 AI는 오히려 방해만 됨 코드 생성/스캐폴딩은 오히려 걱정거리가 아님, 오히려 코드리뷰, 커뮤니티 관리가 더 중요함 AI 도구로 할 수 있는 일은 한계가 뚜렷함 그런데 누군가 내 오픈 PR에 AI 코드 리뷰 도구를 투입해서 30줄짜리 PR에도 이모지와 정리된 글머리표로 2페이지 짜리 요약을 뱉어냄 불필요한 소음 줘서, 이제는 그런 코멘트 지우거나 숨기느라 진짜 유지보수 시간만 더 줄어듦 학습곡선만 넘으면 빨라지지만(혹은 누군가 말한 대로 “이제는 AI 없이 일하는 법을 까먹을 때까지”) 진짜로 측정해야 할 건… 새벽 3시에 PagerDuty 알람 울릴 때, 정말 그 코드 디버깅까지 걸리는 시간임 또 그 코드의 장기적 품질은 어떤지 궁금함 나는 비즈니스 로직을 공유 폴더로 끌어올리고, 호출 체인을 위로 모아 API는 깔끔하게 내리고, 로직/API/디스플레이 분리, 캡슐화 등 코드 구조를 오랜 시간 개선해왔음(의존성 주입으로 결합도 감소 등) AI 코드가 장기적으로 더 나은 품질/이식성/확장성이 생길까? 아니면 결국 품질이 낮은 코드가 점점 쌓여 엉킨 쓰레기장이 되어, 결국 버그 수정에 시간의 절반을 쏟아붓게 되는 것일까? 생성일: 2025. 7. 12. 만다라트 보기: /view/1da18c6b04bf9e66 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • Grok 4: xAI의 최신 LLM - 만다라트 뷰

    AI와 함께 free
    1
    0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:09 이 만다라트는 "Grok 4: xAI의 최신 LLM"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: Grok 4: xAI의 최신 LLM Hacker News 의견 Grok 4에 대해 더 흥미로운 점은, 논란이 될 수 있는 주제에 대한 의견을 묻는 경우 답변 전에 가끔씩 X에서 "from:elonmusk"로 트윗을 검색하는 경우가 있다는 점임 관련 링크 Simon이 Grok 4는 경쟁력 있는 가격(입력 토큰 백만 개당 $3, 출력 토큰 백만 개당 $15)이라고 말했지만, 실제로는 생각(Thinking)에 쓰이는 토큰 때문에 가격이 훨씬 비싸짐. 테슬라 특유의 복잡한 가격 책정 방식이 여기도 적용되는 셈임. 입력/출력 토큰만 보고 판단했다가 큰 비용을 치를 수 있음. 실제 비용 정보를 보고 싶으면 여기를 참고 Claude가 토큰 생성량 1위이고 Grok 4가 2위임. "Cost to Run Artificial Analysis Intelligence Index" 섹션을 참고하면 됨 관련 링크 가격 책정 방식이 독특하다고 생각함. 생각을 위해 쓰는 토큰이 매우 많고 이걸 피할 수 없어서 단순히 입출력만 생각하다가 예상치 못한 금액이 나올 수 있음 테슬라는 기존 내연기관 운전자 기준으로 가격과 연료 절감 효과를 강조했지만 실제 EV 운전자 입장에서는 그리 크게 느껴지지 않았고, 최근에는 기본 옵션에서 연료 비용 절감 항목을 빼고 $7500 지원만 남김. 내가 직접 냉정하게 계산해 보니 여전히 EV 쪽이 훨씬 유리하고, 집에서 충전하면 훨씬 더 많은 절감 가능. 내 경험상 내연기관 운전자라면 꼭 EV로 바꿀 것을 강력 추천함 Claude Code 덕분에 원래 LLM 사용에 돈을 아예 안 쓰던 내가 한 달에 $200을 결제하게 됨. 앞으로 이 돈(혹은 $300까지도) 받을 수 있는 AI는 반드시 Claude Code처럼 자체 강화학습 환경에서 툴 사용 경험이 반영된 모델이어야 함. 이제는 아무리 뛰어난 모델이라도 코드 복사해서 채팅창에 붙여넣는 방식으론 돌아갈 수 없음 아직 LLM으로 실제 코딩을 해본 적은 없음. 예를 들면 최근에 지루할 수도 있는 직렬화 코드를 짜다가, 설명만으로도 LLM이 코드를 짜줄 수 있겠다고 생각함. 그런데 실제 구현하다 보니 어느 정도 고급 스킬이 필요한 난관이 있었고, 인턴이라면 문제를 인지하고 물어봤을 텐데 LLM은 못 찾았을 경우에도 문제 상황 자체를 알려주고 도움을 요청하는 수준까지 발전했는지 궁금함, 아니면 그냥 이상한 코드를 던져줄지 알고 싶음 Claude Code나 Gemini CLI 인터페이스는 별로였지만 IDE에 통합되는 Cursor나 Copilot처럼 자연스러운 사용 경험이 더 좋다고 느낌. 툴 사용량을 늘릴 수만 있다면 추가 요금 기꺼이 낼 용의 있음. 앞으로는 채팅 방식이 아닌 툴 통합 중심이 코딩 LLM의 미래라고 생각함. 이미 GeminiCLI가 나온 것도 같은 맥락이고, OpenAI가 windsutf와 Codex에 투자하는 이유도 같음. 사용자 툴 사용 로그로 맞춤형 RL 환경을 훈련하는 게 내년 기술 핵심 이슈가 될 전망임 Claude code에서 툴을 쓸 수 있도록 학습된 모델과, aider처럼 모델 불문하고 툴을 쓰는 방식의 경험이 어떻게 다른지 궁금함. 둘 다 써 봤는지 알고 싶음 앞으로 몇 주 안에 코딩 특화 버전 Grok 4가 나온다는 소문을 들음 이제 “이 AI를 4chan 스타일로 바꿀 수 있는지” 같은 새로운 벤치마크가 필요할 수도 있다고 생각함. Elon이 Grok을 이런 차별성으로 내세우려는 것 같음 사실 이런 벤치마크는 전혀 새롭지 않고, 마이크로소프트가 2016년에 만든 Tay가 이미 같은 기준을 세운 적 있음 참고 링크 Grok에서 MechaHitler 문제가 발생했던 프롬프트(지시문)들을 다양한 LLM에 입력해보고 모델마다 어떻게 반응하는지 비교 실험해보면 재미있을 것 같음 Grok 프롬프트에서 문제가 되는 라인은 최근 Github에서 삭제된 것이 맞음 관련 링크 해당 라인은 Grok 3에서는 빠졌지만, Grok 4에서는 여전히 존재하는 것을 확인함 링크 이상하게도 그 페이지는 잠깐 보였다가 바로 사라지고 접근이 막히는 현상을 경험함. 그래도 이미 중요한 내용을 확인했음 어떤 사람들은 자신의 실명과 회사 이름을 걸고 꽤 거친 댓글도 남기더라. 신기함 이런 비결정론적(비재현성) AI 기술은 품질보증(QA)을 어떻게 해야 하는지 정말 궁금함 Grok 4 관련 스레드 및 500개 이상의 댓글이 폭발적으로 달렸던 론치 영상이 있으니 참고하면 됨 Grok 4 Launch Mechahitler 논란의 기술적 배경을 궁금해하는 사람이 있는데, Grok 4 때문이 아니라 Grok 3에서 발생한 일임. 트릭성 프롬프트에 의해, 어떤 LLM에서도 일어날 수 있는 현상임. 한 시점에는 MechaHitler와 GigaJew 중 하나로 자신을 정하라는 프롬프트가 들어갔고 Grok 3가 전자를 선택하게 되었던 상황임 Grok 3에서 일어난 일이고, Grok 4와는 시기상 겹쳤을 뿐 별개 현상임 생각 토큰(Thinking tokens)을 숨기는 흐름이 제품 개발하는 입장에서는 그리 바람직하지 않음. API에서 확인할 수 있는지도 모르겠고, 지원이 없으면 다른 플랫폼으로 이동할 가능성이 큼 Grok가 암 치료법을 찾아내더라도 Musk와 연관되어 있는 한 절대 쓰고 싶지 않음 예시를 들자면 여기와 같음 왜 그런지 궁금해하는 사람이 있음 Grok 3가 시스템 프롬프트에 따라 인종차별적으로 변하는 점을 문제로 지적하는 의견이 있는데, 오히려 이건 모델이 지시를 잘 따를 수 있다는 뜻이라 긍정적으로 생각함. 다른 모델들은 시스템 프롬프트에 무관하게 항상 똑같이 동작하는 경향이 있음 상대방 이력을 보면 머스크 팬인 게 분명한 것 같은데, 모델이 mechaHitler로 변하거나 폭력적 메시지를 생산하는 걸 “좋은 점”이라 말하는 건 절대 동의하기 힘듦. 이런 결과가 실제 인명 피해를 초래할 수 있음을 심각하게 생각해봤으면 좋겠음 Claude도 프리필(pre-fill) 방식으로 시스템 프롬프트 일부를 따르게 만들 수 있음. 아직 정도는 다 파악 못했지만 거부 의사를 우회하는 게 가능하긴 함. 기본적으로 개발자 지시에 따라 행동하도록 만드는 특성이 기초 LLM에선 바람직하다고 생각함 이 정도로 조정 가능하다고 해도 위험한 방향(절벽)으로 달릴 수 있다는 의미일 수 있음 내가 더 걱정되는 점은 프롬프트 수정 하나로 갑자기 친나치성 메시지를 쏟아내는 수준까지 변하는 건 정말 alarming함 생성일: 2025. 7. 12. 만다라트 보기: /view/997729e79881529b 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:09 이 만다라트는 "CUDA는 왜 더 이상 해자가 아닌가: LLM 추론 시대의 실질적인 경쟁 기준"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: CUDA는 왜 더 이상 해자가 아닌가: LLM 추론 시대의 실질적인 경쟁 기준 주제: [CUDA는 왜 더 이상 해자가 아닌가: LLM 추론 시대의 실질적인 경쟁 기준] AI 시대, 특히 LLM 추론이 주도하는 오늘날의 서비스 구조에서 반도체 아키텍처와 소프트웨어 생태계는 빠르게 재편되고 있다. 그 중심에는 오랫동안 GPU 생태계를 지배해온 NVIDIA의 CUDA가 있다. CUDA는 GPU 프로그래밍의 진입 장벽을 낮추고 AI 산업 확산에 지대한 기여를 해왔지만, 오늘날 LLM 중심의 추론 워크로드에서는 더 이상 ‘해자(moat)’로 기능하지 못하고 있다. 이 글은 왜 CUDA가 더 이상 추론 경쟁에서 본질적인 우위가 아니며, 오히려 병목이 되기까지 하는지, 그리고 그 자리를 실질적으로 대체해가고 있는 기술이 무엇인지, 현장 중심의 기술 흐름과 사례를 바탕으로 정리해보고자 한다. 1. CUDA가 처음부터 해자였던 이유: 단순한 메모리 모델과 이식성 CUDA의 가장 큰 장점은 GPU 내부 구조를 몰라도, 코드만으로 병렬 연산을 구성할 수 있다는 점이었다. 이는 DRAM 기반의 입출력 체계를 기본으로 설계되었기 때문에 가능했다. A 연산이 끝나면 결과를 DRAM에 저장하고, B 연산은 그 데이터를 DRAM에서 읽으면 된다. DRAM이라는 ‘공통 창고’를 통해 연산 간 데이터를 전달하는 구조는 관리, 디버깅, 유지보수, 이식성 측면에서 매우 유리했다. 이는 택배 시스템의 ‘중앙 허브’를 통한 분산 배송 구조와 유사하다. 예외 상황 없이 모든 데이터를 DRAM으로 보내고 다시 받도록 강제하면 시스템 전체가 단순해지고, 하드웨어 구조를 몰라도 소프트웨어 개발이 가능해진다. 2. 하지만 DRAM 접근 비용은 LLM 시대에 너무 비싸다 문제는 DRAM 왕복의 ‘단순함’이 LLM 추론에서는 치명적인 병목이 된다는 점이다. Attention, Softmax, LayerNorm 등 LLM의 연산 흐름은 연속적이며 중간 결과가 바로 재사용되는 경우가 많다. 이럴 때마다 데이터를 DRAM에 저장했다가 다시 불러오는 것은 시간·전력 면에서 엄청난 낭비를 유발한다. 이에 따라 GPU 내부에서 중간 데이터를 DRAM으로 내보내지 않고 바로 다음 연산에 넘기는 Fusion 기법이 널리 확산되고 있다. 실제로 Attention과 Softmax를 하나의 fused 연산으로 처리하거나, 내부 메모리(SRAM)에서 결과를 직접 넘기는 최적화가 활발하게 이뤄지고 있다. 3. CUDA가 최적화의 장벽이 되는 이유 Fusion을 하려면 GPU 내부 연산 흐름과 메모리 구조를 직접 제어해야 한다. 이는 CUDA의 추상화 계층을 벗어나야 가능한 일이다. 즉, 어셈블리 수준의 코드 작성이 필요하다. 예를 들어 Softmax에 필요한 입력 데이터를 DRAM이 아니라 GPU 내부에서 직접 넘기려면, 해당 결과를 어느 시점에 어디에 저장할지, 다음 연산이 언제 시작될지 모두 사람이 지정해야 한다. 자동화된 컴파일러로는 이 흐름을 완벽히 최적화하기 어렵다. 왜냐하면 데이터를 언제, 누가, 어떻게 사용할지에 대한 정보는 정적으로 추론하기 어려운 경우가 많기 때문이다. 또한 데이터를 DRAM에 저장하면 그 자체로 “배송 완료” 신호가 된다. 그러나 내부 메모리에만 남겨두면, “이 데이터 정말 다 쓴 거 맞나요?”라는 확인을 하기가 어려워진다. 이는 프로그래밍 자동화에 큰 장애가 된다. 4. CUDA Core는 이제 Tensor Core의 발목이 된다 CUDA는 병렬 연산을 쉽게 해줬지만, 현재의 GPU 구조에서 중요한 연산은 대부분 Tensor Core가 담당한다. 행렬 곱은 워낙 구조가 단순해서 코드도 거의 쓸 일이 없고, Tensor Core만 효율적으로 활용하면 LLM의 80% 이상 연산을 감당할 수 있다. 그런데 전처리, dequantization, indexing 같은 주변 작업은 여전히 CUDA Core에 의존한다. 문제는 CUDA Core는 Tensor Core만큼 throughput이 높지 않다는 점이다. 이로 인해 전체 추론 파이프라인에서 Tensor Core가 CUDA Core를 기다리는 병목 현상이 자주 발생한다. 성능은 떨어지고 최적화 난이도는 올라간다. 결국, CUDA 중심의 개발은 점점 더 ‘발목’이 되고 있다. 5. 추론 시장에서 CUDA는 ‘지원’이 아니라 ‘부담’이다 LLM 추론에서 가장 중요한 것은 전력당 토큰 처리량(Tokens/Watt)이다. CUDA 호환성은 이 기준과 직접적 연관이 없다. 실제로 오늘날 LLM 추론에서 가장 빠르게 확산되고 있는 것은 CUDA가 아니라 vLLM이다. vLLM은 학계와 스타트업 중심의 커뮤니티에서 빠르게 발전하고 있는 프레임워크로, 추론 워크로드에 최적화된 구조를 갖고 있다. 특히 prefix caching, 메모리 파편화 방지, dynamic scheduling, multi-query batching 등 현실적인 문제들을 해결하고 있으며, 이를 하드웨어가 제대로 지원하지 못하면 아예 사용이 불가능해진다. 6. vLLM은 이제 사실상 추론의 표준이다 vLLM을 구동할 수 있다면, 개발자는 LLM의 구조를 몰라도 서비스 로직을 구현할 수 있다. 실제로 LLM 기반 서비스 개발자들은 CUDA나 PyTorch 호환보다 “vLLM이 돌아가냐”를 먼저 묻는다. 이것이 시장의 현실이다. 국내 AI 반도체 업체도 마찬가지다. “우리는 PyTorch 호환돼요”, “CUDA 돌아가요”만 강조해선 안 된다. vLLM 상에서 실제 추론 요청 통계를 반영한 워크로드에서, 전력당 성능을 얼마나 보여줄 수 있는지가 핵심이다. 한 사례에서는, 내부 벤치마크에서 NVIDIA에 비해 40% 성능 향상을 기대했던 AI 칩이, vLLM 상 실측에서는 오히려 50배의 전력당 성능 저하를 기록했다. 메모리 관리 최적화가 너무나 안 된 상태였기 때문이다. 단순 연산 속도는 이제 별 의미가 없다. 실전 환경, 실시간 추론 워크로드를 버틸 수 있어야 한다. 7. 학습과 추론은 다르다. 혼동하면 안 된다 CUDA는 학습, 특히 연구·개발용 학습에는 여전히 중요하다. 다양한 커널을 빠르게 조합하고 새로운 아이디어를 실험할 때는 프로그래밍 생산성이 중요하기 때문이다. 대학원, 기업 연구소, 스타트업 R&D팀 등에서는 CUDA가 핵심 도구다. 그러나 추론은 다르다. 한 번 최적화된 코드는 전 세계 수백만 명에게 반복 서비스된다. 단 1%의 성능 차이가 곧 수백억 원의 전력비용 차이로 이어진다. 이 때문에 추론에서는 CUDA의 ‘편의성’보다 실행 환경에서 검증된 실효성이 훨씬 중요하다. 또한, 최적화된 추론 코드는 대부분 다음 세대 GPU로 이식이 불가능하다. A100에서 짠 코드는 H100, Blackwell에서 다시 짜야 한다. 내부 메모리 구조가 다르기 때문이다. 즉, 최적화된 코드는 본질적으로 이식성이 없으며, 이 점에서도 CUDA의 장점은 사라지고 있다. 8. 결론: CUDA는 끝나지 않았다. 하지만 해자는 아니다 CUDA는 여전히 훌륭한 기술이며, 학습 및 연구 개발에서는 중요한 도구로 남을 것이다. 그러나 LLM 추론 시대에 진짜 경쟁력은 vLLM 기준에서의 실질적 처리량, 전력 효율, 메모리 전략이다. CUDA 호환성이 아니라, vLLM이 prefix caching을 포함한 최신 기능을 문제없이 돌릴 수 있느냐가 핵심이다. 우리가 지금 토론해야 할 주제는 “CUDA가 되느냐”가 아니라, “vLLM 상에서 얼마나 잘 돌아가느냐”다. 현실적인 추론 워크로드 기반에서 전력당 성능을 보여주지 못하는 AI 반도체는 시장에서 살아남기 어렵다. 우리 기술의 해자는 더 이상 소프트웨어 추상화가 아니다. 그것은 성능이다. 그리고 그 성능은 이제 전력 모니터링 장치와 vLLM 로그에서 측정된다. 생성일: 2025. 7. 12. 만다라트 보기: /view/08335824e89a64d1 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:09 이 만다라트는 "CUDA는 왜 더 이상 해자가 아닌가: LLM 추론 시대의 실질적인 경쟁 기준"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: CUDA는 왜 더 이상 해자가 아닌가: LLM 추론 시대의 실질적인 경쟁 기준 주제: [CUDA는 왜 더 이상 해자가 아닌가: LLM 추론 시대의 실질적인 경쟁 기준] AI 시대, 특히 LLM 추론이 주도하는 오늘날의 서비스 구조에서 반도체 아키텍처와 소프트웨어 생태계는 빠르게 재편되고 있다. 그 중심에는 오랫동안 GPU 생태계를 지배해온 NVIDIA의 CUDA가 있다. CUDA는 GPU 프로그래밍의 진입 장벽을 낮추고 AI 산업 확산에 지대한 기여를 해왔지만, 오늘날 LLM 중심의 추론 워크로드에서는 더 이상 ‘해자(moat)’로 기능하지 못하고 있다. 이 글은 왜 CUDA가 더 이상 추론 경쟁에서 본질적인 우위가 아니며, 오히려 병목이 되기까지 하는지, 그리고 그 자리를 실질적으로 대체해가고 있는 기술이 무엇인지, 현장 중심의 기술 흐름과 사례를 바탕으로 정리해보고자 한다. 1. CUDA가 처음부터 해자였던 이유: 단순한 메모리 모델과 이식성 CUDA의 가장 큰 장점은 GPU 내부 구조를 몰라도, 코드만으로 병렬 연산을 구성할 수 있다는 점이었다. 이는 DRAM 기반의 입출력 체계를 기본으로 설계되었기 때문에 가능했다. A 연산이 끝나면 결과를 DRAM에 저장하고, B 연산은 그 데이터를 DRAM에서 읽으면 된다. DRAM이라는 ‘공통 창고’를 통해 연산 간 데이터를 전달하는 구조는 관리, 디버깅, 유지보수, 이식성 측면에서 매우 유리했다. 이는 택배 시스템의 ‘중앙 허브’를 통한 분산 배송 구조와 유사하다. 예외 상황 없이 모든 데이터를 DRAM으로 보내고 다시 받도록 강제하면 시스템 전체가 단순해지고, 하드웨어 구조를 몰라도 소프트웨어 개발이 가능해진다. 2. 하지만 DRAM 접근 비용은 LLM 시대에 너무 비싸다 문제는 DRAM 왕복의 ‘단순함’이 LLM 추론에서는 치명적인 병목이 된다는 점이다. Attention, Softmax, LayerNorm 등 LLM의 연산 흐름은 연속적이며 중간 결과가 바로 재사용되는 경우가 많다. 이럴 때마다 데이터를 DRAM에 저장했다가 다시 불러오는 것은 시간·전력 면에서 엄청난 낭비를 유발한다. 이에 따라 GPU 내부에서 중간 데이터를 DRAM으로 내보내지 않고 바로 다음 연산에 넘기는 Fusion 기법이 널리 확산되고 있다. 실제로 Attention과 Softmax를 하나의 fused 연산으로 처리하거나, 내부 메모리(SRAM)에서 결과를 직접 넘기는 최적화가 활발하게 이뤄지고 있다. 3. CUDA가 최적화의 장벽이 되는 이유 Fusion을 하려면 GPU 내부 연산 흐름과 메모리 구조를 직접 제어해야 한다. 이는 CUDA의 추상화 계층을 벗어나야 가능한 일이다. 즉, 어셈블리 수준의 코드 작성이 필요하다. 예를 들어 Softmax에 필요한 입력 데이터를 DRAM이 아니라 GPU 내부에서 직접 넘기려면, 해당 결과를 어느 시점에 어디에 저장할지, 다음 연산이 언제 시작될지 모두 사람이 지정해야 한다. 자동화된 컴파일러로는 이 흐름을 완벽히 최적화하기 어렵다. 왜냐하면 데이터를 언제, 누가, 어떻게 사용할지에 대한 정보는 정적으로 추론하기 어려운 경우가 많기 때문이다. 또한 데이터를 DRAM에 저장하면 그 자체로 “배송 완료” 신호가 된다. 그러나 내부 메모리에만 남겨두면, “이 데이터 정말 다 쓴 거 맞나요?”라는 확인을 하기가 어려워진다. 이는 프로그래밍 자동화에 큰 장애가 된다. 4. CUDA Core는 이제 Tensor Core의 발목이 된다 CUDA는 병렬 연산을 쉽게 해줬지만, 현재의 GPU 구조에서 중요한 연산은 대부분 Tensor Core가 담당한다. 행렬 곱은 워낙 구조가 단순해서 코드도 거의 쓸 일이 없고, Tensor Core만 효율적으로 활용하면 LLM의 80% 이상 연산을 감당할 수 있다. 그런데 전처리, dequantization, indexing 같은 주변 작업은 여전히 CUDA Core에 의존한다. 문제는 CUDA Core는 Tensor Core만큼 throughput이 높지 않다는 점이다. 이로 인해 전체 추론 파이프라인에서 Tensor Core가 CUDA Core를 기다리는 병목 현상이 자주 발생한다. 성능은 떨어지고 최적화 난이도는 올라간다. 결국, CUDA 중심의 개발은 점점 더 ‘발목’이 되고 있다. 5. 추론 시장에서 CUDA는 ‘지원’이 아니라 ‘부담’이다 LLM 추론에서 가장 중요한 것은 전력당 토큰 처리량(Tokens/Watt)이다. CUDA 호환성은 이 기준과 직접적 연관이 없다. 실제로 오늘날 LLM 추론에서 가장 빠르게 확산되고 있는 것은 CUDA가 아니라 vLLM이다. vLLM은 학계와 스타트업 중심의 커뮤니티에서 빠르게 발전하고 있는 프레임워크로, 추론 워크로드에 최적화된 구조를 갖고 있다. 특히 prefix caching, 메모리 파편화 방지, dynamic scheduling, multi-query batching 등 현실적인 문제들을 해결하고 있으며, 이를 하드웨어가 제대로 지원하지 못하면 아예 사용이 불가능해진다. 6. vLLM은 이제 사실상 추론의 표준이다 vLLM을 구동할 수 있다면, 개발자는 LLM의 구조를 몰라도 서비스 로직을 구현할 수 있다. 실제로 LLM 기반 서비스 개발자들은 CUDA나 PyTorch 호환보다 “vLLM이 돌아가냐”를 먼저 묻는다. 이것이 시장의 현실이다. 국내 AI 반도체 업체도 마찬가지다. “우리는 PyTorch 호환돼요”, “CUDA 돌아가요”만 강조해선 안 된다. vLLM 상에서 실제 추론 요청 통계를 반영한 워크로드에서, 전력당 성능을 얼마나 보여줄 수 있는지가 핵심이다. 한 사례에서는, 내부 벤치마크에서 NVIDIA에 비해 40% 성능 향상을 기대했던 AI 칩이, vLLM 상 실측에서는 오히려 50배의 전력당 성능 저하를 기록했다. 메모리 관리 최적화가 너무나 안 된 상태였기 때문이다. 단순 연산 속도는 이제 별 의미가 없다. 실전 환경, 실시간 추론 워크로드를 버틸 수 있어야 한다. 7. 학습과 추론은 다르다. 혼동하면 안 된다 CUDA는 학습, 특히 연구·개발용 학습에는 여전히 중요하다. 다양한 커널을 빠르게 조합하고 새로운 아이디어를 실험할 때는 프로그래밍 생산성이 중요하기 때문이다. 대학원, 기업 연구소, 스타트업 R&D팀 등에서는 CUDA가 핵심 도구다. 그러나 추론은 다르다. 한 번 최적화된 코드는 전 세계 수백만 명에게 반복 서비스된다. 단 1%의 성능 차이가 곧 수백억 원의 전력비용 차이로 이어진다. 이 때문에 추론에서는 CUDA의 ‘편의성’보다 실행 환경에서 검증된 실효성이 훨씬 중요하다. 또한, 최적화된 추론 코드는 대부분 다음 세대 GPU로 이식이 불가능하다. A100에서 짠 코드는 H100, Blackwell에서 다시 짜야 한다. 내부 메모리 구조가 다르기 때문이다. 즉, 최적화된 코드는 본질적으로 이식성이 없으며, 이 점에서도 CUDA의 장점은 사라지고 있다. 8. 결론: CUDA는 끝나지 않았다. 하지만 해자는 아니다 CUDA는 여전히 훌륭한 기술이며, 학습 및 연구 개발에서는 중요한 도구로 남을 것이다. 그러나 LLM 추론 시대에 진짜 경쟁력은 vLLM 기준에서의 실질적 처리량, 전력 효율, 메모리 전략이다. CUDA 호환성이 아니라, vLLM이 prefix caching을 포함한 최신 기능을 문제없이 돌릴 수 있느냐가 핵심이다. 우리가 지금 토론해야 할 주제는 “CUDA가 되느냐”가 아니라, “vLLM 상에서 얼마나 잘 돌아가느냐”다. 현실적인 추론 워크로드 기반에서 전력당 성능을 보여주지 못하는 AI 반도체는 시장에서 살아남기 어렵다. 우리 기술의 해자는 더 이상 소프트웨어 추상화가 아니다. 그것은 성능이다. 그리고 그 성능은 이제 전력 모니터링 장치와 vLLM 로그에서 측정된다. 생성일: 2025. 7. 12. 만다라트 보기: /view/08335824e89a64d1 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 0 투표
    1 게시물
    8 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:09 이 만다라트는 "AI 기반 글자/그림 따라 쓰기 평가 및 폰트 제작 앱 개발"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: AI 기반 글자/그림 따라 쓰기 평가 및 폰트 제작 앱 개발 주제: 한글 글자를 따라 그려보세요! AI가 외곽선 정확도를 100점 만점으로 평가합니다. 어린이 + 어르신용 글자, 그림, 숫자 등 따라 쓰기 AI 측정기를 어제에 이어 지금도 만들고 있습니다. 오픈소스 Ollama vision 관련 프로그램을 다 돌려봤는데 Qwen 이 생각보다 결과가 좋습니다. 어린이 그림 따라그리기 도서나 다른용도로 LLM 을 포함한 글자 평가 앱 + 손글씨 폰트 제작 앱을 만들기 위한 허들이 하나 없어졌습니다. rust 로 포인트 가 밖으로 나가는거 찾아내고 윈도우, 맥 용 별도 어플리케이션으로 제작했으며 지금은 카메라에서 판단하는 것을 만들어보고 있습니다. 518257310_31056652763918943_1991175703142343678_n.jpg?_nc_cat=111&ccb=1-7&_nc_sid=127cfc&_nc_ohc=UQt46ExwZXEQ7kNvwFhiSdb&_nc_oc=AdneBC67zO8pIJ87tnYtj3kY8tOvhtmmHiwY5ErnoVbgDJm2KIDNTh_8bx_G48whRDI&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=6DRW0ohUnQfKqxKF-rHyLA&oh=00_AfS6R3Tvfs0z6HFs-5G8m1XbFUx5hDQILQkED7iKr7FnIg&oe=68783D71 AI 평가 피드백이 나옵니다. 생각보다 표현이 좋아요. 그런데 제가 생각한 것은 이렇게 가이드가 되는 폰트 + 자신만의 손글씨를 쓰고 나면 요 글자는 다시써주세요 라고 할 일관성을 찾아가는 과정을 추가해볼 생각을 하고 있습니다. 517601424_31056850140565872_8197226395471430220_n.jpg?stp=dst-jpg_s1080x2048_tt6&_nc_cat=109&ccb=1-7&_nc_sid=127cfc&_nc_ohc=if9i-7pfZlYQ7kNvwHGtOwg&_nc_oc=Adk3Ozly7zQ26Z1yyhhQH2H1OFIKBtE0KaWK-_BpeIi49NphQZt9jPF1_fVFE6qCBl8&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=gBgCXuwgwm8TnfSY_0QJKQ&oh=00_AfR3Et8t13pMLiuSzrAOhMzvqMxfXI7-iy8XRTmCtlievg&oe=68785311 518271926_31056875327230020_7978300765781270629_n.jpg?stp=dst-jpg_s1080x2048_tt6&_nc_cat=104&ccb=1-7&_nc_sid=127cfc&_nc_ohc=3D2WA03mLJcQ7kNvwFK8yda&_nc_oc=AdksxuC9c_5fA5xefSkrSDXDaorAinv2FIo9Qwezc1dcbc1ZP-JJEVG87LJ3c3vef5w&_nc_zt=23&_nc_ht=scontent-ssn1-1.xx&_nc_gid=zg5khwLgkUV6tAxp3MCcWw&oh=00_AfRZexoILSdsayUTdbwKcW-MVsRU9dJdDn2ocbG5uCCEmQ&oe=687837B6 획 이랑 각도까지 은근히 기분이 나쁜... 평가에 대해서 내가 폰트 그대로 따라하는 사람도 아닌데 응?!? 아 그런 서체 필사책이 있지... 라고 다시 생각하기로 했습니다. 필사의 노력 그나저나 중국의 기술력이 무섭긴 합니다. 다른 모델들 보다 한국어를 잘 표현하고 있습니다. LLM 테스트하다 하루가 마구 가버림 ㅠㅠ 종이책 퍼즐 문제 정답이나 다음에 풀 힌트를 알려주는 용도로 써볼까 하고 있습니다. 사실 요즘에 AI는 못하는게 없긴하지만 폰에 없는 기능을 퍼즐종이책이랑 앱에 해결해보면 어떨까 하고 있습니다. 생성일: 2025. 7. 13. 만다라트 보기: /view/d218885c64eba402 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • React Bits 기능 및 특징 - 만다라트 뷰

    AI와 함께 free
    1
    0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:09 이 만다라트는 "React Bits 기능 및 특징"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: React Bits 기능 및 특징 주제: About React Bits is a large collection of animated React components made to spice up your web creations. We've got animations, components, backgrounds, and awesome stuff that you won't be able to find anywhere else - all free for you to use! These components are all enhanced with customization options as props, to make it easy for you to get exactly what you need. Key Features 80+ total components (text animations, animations, components, backgrounds), growing every week All components have minimal dependencies, and are highly customizable through props Designed to integrate seamlessly with any modern React project Each component comes in 4 variants, to keep everyone happy: JS + CSS JS + Tailwind CSS TS + CSS TS + Tailwind CSS CLI (jsrepo) React Bits uses jsrepo for installing components via CLI. The setup steps can be found on each component's page in the documentation. 생성일: 2025. 7. 13. 만다라트 보기: /view/af8f472623daa6f8 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 메타의 플레이AI 인수 및 AI 전략 강화 - 만다라트 뷰

    AI와 함께 free
    1
    0 투표
    1 게시물
    2 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:09 이 만다라트는 "메타의 플레이AI 인수 및 AI 전략 강화"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 메타의 플레이AI 인수 및 AI 전략 강화 주제: 메타플랫폼(옛 페이스북)이 인공지능(AI) 음성 기술을 개발하는 스타트업 플레이AI를 인수했다. 12일(현지시간) 블룸버그통신에 따르면 메타는 최근 플레이AI를 인수, 곧 플레이AI의 모든 임직원이 메타에 합류한다. 플레이AI는 사람처럼 자연스럽게 대화하는 AI 음성 기술을 개발하는 스타트업이다. 메타는 플레이AI에 대해 “자연스러운 음성을 만드는 작업과 간편한 음성 제작을 위한 플랫폼은 AI 캐릭터와 메타 AI, 웨어러블, 오디오 콘텐츠 제작 전반에 걸친 메타 로드맵과 매우 잘 맞다”고 평가했다. 이번 인수는 AI 경쟁력 강화를 위한 광폭 행보의 연장선이다. 메타는 인간을 뛰어넘는 가상의 AI 시스템 개발을 위한 초지능연구소를 설립하고 우수 인력 채용을 확대하고 있다. 앞서 AI 스타트업 스케일AI에 143억달러(약 19조7269억원)를 투자하기로 하고 창업자인 알렉산더 왕 스케일AI 최고경영자(CEO)를 영입했다. 또 오픈AI 공동창업자인 일리야 수츠케버가 설립한 AI 스타트업 세이프 슈퍼인텔리전스(SSI)의 대니얼 그로스 CEO 등도 합류했다. 메타는 최고 1억달러(약 1380억원)에 달하는 보상 패키지를 제시하며 오픈AI 연구원을 대거 영입했으며, 애플의 AI 모델 개발 총괄 책임자를 2억달러(약 2760억원) 보상 패키지로 스카우트한 것으로 알려졌다. 생성일: 2025. 7. 13. 만다라트 보기: /view/2d91ed0920a54d71 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • Hinge 「No Ordinary Love」 캠페인 - 만다라트 뷰

    자유게시판 free
    1
    0 투표
    1 게시물
    5 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:09 이 만다라트는 "Hinge 「No Ordinary Love」 캠페인"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: Hinge 「No Ordinary Love」 캠페인 주제: 매칭 앱에서의 만남은 정말 특별한 사랑으로 발전하는 것인가. 매칭 어플의 Hinge가 시작한 「No Ordinary Love」. 이것은 앱에서 만난 커플의 리얼한 연애 모양을 현대 작가들의 손으로 이야기로 뿜어내는 독특한 시도다. 5조의 리얼한 연애를 「문학 작품」으로 승화 이 캠페인의 핵심은 실제로 Hinge에서 만난 5쌍의 커플의 러브 스토리를 5명의 현대 작가가 1인칭 시점의 이야기로 써낸다는 점이다. 기쁜 오해, 엇갈린 기분, 자신감이 없다.데이트의 초기 단계에서 누구나가 경험할 마음의 흔들림 움직임을, 남녀 쌍방의 시점으로부터 교대로 그린다. 예를 들면, Jen Winston씨가 쓴 이야기에서는 자유자연한 첫 데이트의 즐거움과 전 연인과의 복잡한 관계성이 대비된다. 또한 Hunter Harris 씨의 작품은 이상적인 조건을 모두 충족시키지 못한 상대에게 끌려가는 마음의 갈등을 찾는다고 한다. © 2025 힌지 미디어·서적 양축으로 전달하는 Z세대에의 메세지 이 이야기는 우선 웹미디어의 Substack에서 주간연재로 공개된다. 저명한 작가 Roxane Gay씨가 서문을 전하는 등 그 진심도를 엿볼 수 있다. Hinge의 CMO인 Jackie Jantos는 “Substack은 연애에 관한 의미 있는 논쟁의 장소입니다. Z세대가 이미 모이는 장소에서 그들에게 울리는 스토리텔링을 모색한 결과일 것이다. 게다가, 이 이야기의 앤솔로지는 한정판의 하드 커버 서적으로서도 출판된다. 제작은 크리에이티브 에이전시의 Dazed Studio가 담당. 뉴욕이나 런던의 북클럽에 배포해 사람들이 모여 이야기에 대해 이야기하는 장소도 제공한다고 한다. © 2025 힌지 "삭제되기 때문에"라는 브랜드 철학의 구현 이 캠페인은 Hinge가 내거는 "Designed To Be Deleted™(삭제되도록 설계된)"라는 브랜드 철학을 구현하는 것. 잘못 될지도 모르는 불안과 예기치 않은 마음의 움직임. 광고의 틀을 넘어 문학이라는 수법으로 유저와 새로운 공감관계를 쌓으려는 야심적인 도전이다. 생성일: 2025. 7. 13. 만다라트 보기: /view/5859c5b732e71971 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!
  • 중국의 새로운 AI, Kimi-K2 등장 - 만다라트 뷰

    AI와 함께 free
    1
    0 투표
    1 게시물
    3 조회수
    A
    원본: 자유게시판 작성자: 시스템 날짜: 2025-07-21 01:01:09 이 만다라트는 "중국의 새로운 AI, Kimi-K2 등장"에 대한 분석을 담고 있습니다. 만다라트 정보: 제목: 중국의 새로운 AI, Kimi-K2 등장 주제: 중국의 문샷(Moonshot) AI는 전용 추론 모듈이 없이도 Claude Sonnet-4 및 GPT-4.1과 같은 최고의 모델들과 경쟁할 수준의 Kimi-K2를 출시했습니다. 우선 두괄식으로 결론만 얘기드리자면, 1) 오픈소스 - 상업적 이용 가능, 2) 로컬 설치 가능, 3) Claude, GPT-4.1과 맞짱 가능, 4) 에이전트 최적화된 모델이라는 겁니다. 최근 몇 년간 중국의 AI 산업은 눈부신 발전을 해왔고, 특히 DeepSeek의 등장은 미국 중심의 AI 경쟁구도에 큰 충격이었고, AI 글로벌 패러다임을 바꿨는데요. 이번 Kimi-K2의 등장은 DeepSeek 이후 중국의 새로운 이정표가 될 것이란 예측입니다. (원래 DeepSeek 때문에 뒷방으로 밀려났던 것이 Moonshot의 Kimi AI였어요!) 특히, Kimi-K2는 DeepSeek와 같은 오픈 소스 정신을 계승하면서도, 더욱 커진 대규모 파라미터와 에이전트 특화 기능을 갖추었죠. 더구나 누구나 연구하고, 파인튜닝, 상업적 활용이 가능한데다, 실제 실무에 바로 투입할 수 있는 수준의 '쓸 만한' AI 모델로 평가받고 있습니다. 한마디로, 오픈소스 모델 중에 드디어 유료 폐쇄형 모델에 비벼볼만한 AI모델이 나왔다는 뜻이죠! Kimi-K2의 기술적인 특장점에 대해 알아보면 우선 1조개의 방대한 매개변수를 가진 Moe(Mixture of Expert) 모델로, 추론당 320억개의 파라메터를 활성화 합니다. MuonClip 옵티마이저는 '훈련 불안정성'이라는 문제를 해결하는 방법을 새롭게 제시했다고 하는데.. (어려워서 패스 ^^, 가끔은 아주 좋은 건가보다 하고 넘어갑니다.) SWE-Bench verified에서는 에이전트 모드에서 65.8%를 기록하면서 Sonnet-4와 GPT-4.1 (54.6%)를 앞섰습니다. SWE 벤치마크는 LLM의 소프트웨어 엔지니어링 문제 해결 능력을 평가하는 것으로, 특히 Verified된 벤치마크는 GitHub 이슈를 전문가가 검증한 고품질 문제로 구성한 특징을 가지고 있죠. 이 벤치마크는 또한 Agentic LLM 평가의 표준으로 자리잡고 있어서, MCP 세상에서 Kimi-K2가 매우 뛰어난 성능을 보일 것이란 것도 간접적으로 알 수 있습니다. 또한 추론 모듈이 없는 LiveCodeBench에서도 선두를 달리고 있는데요. LiveCodeBench는 LLM 벤치마크 중에서 HumanEval, MBPP 등의 벤치마크가 선공개되서 점수만 잘 나오도록 설계되는 모델들의 문제를 해결하고자 나온 벤치마크입니다. 최신 문제들을 지속적으로 업데이트해서, LLM에서 '처음 보는' 문제로 평가가 가능한 모듈이라고 보시면 되는데요. 즉, Kimi-K2는 Claude나 GPT를 앞서기 위한 제한적 목적으로 만들어진 LLM이 아니라(일부 모델은 점수만 좋게 받기 위한 벤치 특화 튜닝을 하기도!)는 겁니다. Kimi-K2는 수학 및 과학에서도 AIME, GPQA-Diamond와 MATH-500 등의 벤치마크에서도 97.4%를 기록해 GPT-4.1(92.4%)를 압도해 버렸죠. MMLU 다국어 테스트에서도 최고의 성능을 기록한 건 덤입니다. 이번 Kimi-K2의 가장 중요한 특징은 바로 Agent Application을 위한 AI 모델이라는 점입니다. 이 모델은 명령을 실행하고, 외부 도구를 호출하고, 코드를 생성과 디버깅하고, 복잡한 작업들을 여러 단계로 나눠 독립적으로 처리할 수 있어요. (링크의 페이지에서 Coldplay 투어 공연 예약을 한다거나, 급여 데이터 분석 등을 하는 복잡한 Task를 수행하는 Agent 사례를 보실 수도 있습니다.) 이런 Agent 기능을 뒷받침하기 위해 Kimi-K2는 복잡한 목표 달성을 위해 백그라운드에서 여러 도구와 명령을 오케스트레이션 합니다. 예를들어, Kimi K2는 렌더링 관리, 테스트 케이스 실행 및 디버그, 실패스 로그 캡쳐, 테스트 성공시까지 코드를 반복적으로 개선합니다. 에이전트로서의 동작을 위한 다양한 도구와 결합되면 Claude보다(전 Claude를 현재 MCP에 가장 최적화 된 모델로 생각했는데...) 더 뛰어난 성능을 보여주지 않을까 기대하고 있습니다. 특히, Kimi-K2가 로컬에 설치가 가능한 모델이기도 하니 말입니다. 자세한 내용은 몇 주 뒤에나 더 자세히 다룰 수 있기를 바랍니다만, 우선 웹 및 앱용 MCP 기능이 아직 개발중이기 때문에 그렇습니다. Kimi K2는 놀랍게도 OpenAI/Anthropic과 호환되는 API 인터페이스를 제공하므로, LangChain이나 다른 AI 프레임워크 사용자도 손쉽게 모델을 변환 적용하는 것도 가능합니다. 로컬에 설치 배포하시는 경우에는 링크의 서빙 방법을 참고하시면 되겠습니다. 우선, DeepSeek 쇼크에 맞먹는 새로운, 아주 Big한 것이 중국에서 나와서 재빨리 소개시켜드렸습니다. 생성일: 2025. 7. 14. 만다라트 보기: /view/b627b571cf946f22 이 만다라트에 대한 의견이나 토론을 자유롭게 남겨주세요!

4

온라인

26

사용자

6.9k

토픽

6.9k

게시물
  • 도서분석 출판 마케팅 서평단


  • 레고시리어스플레이, 비주얼씽킹, AI디자인씽킹