- 이런 감상평 댓글 너무 좋습니다. 다른 분들은 어떻게 생각하는지 알 수 있어서 마⋯
- 책을 읽긴 했지만 잘 머리 속에 정리 되지 않았던 흐름이 잘 정리되었습니다. 감사⋯
- 아이구 읽어주셔서 고맙습니다. 새해 복 많이 받으세요 😀
- 저도 최근에 이방인 제목만 알고 있다가, 한번 읽어보려고 구매했는데, 너무나 잘 ⋯
- 고맙습니다 :)
- 항상 잘 보고 있습니다 좋은 하루 되세요 :)
- 별 거 아닌 내용인데 이렇게 댓글 남겨주셔서 고맙습니다 :)
- 좋은 글에 대한 감사함을 댓글로 표현합니다. 자세한 설명글 감사합니다.
- OpenCV 버전 4부터는 findContours()가 값을 두 개만 리턴합니다.⋯
- 맨 앞에 im2는 빼야하는 듯 합니다.
- 혹시 im2, contour, hierarchy = cv2.findContour⋯
- 예, 이해하신 흐름이 맞습니다. 다만 '전체적인 분류 성능'을 어떻게 정의하냐에⋯
- 글 감사합니다. 궁금한 부분이, 프로세스가 다음 stump으로 넘어갈때, 샘플링⋯
- 👍
- 표로 정리해주셔서 이해가 한번에 잘 됐어요
목록전체 글 (234)
귀퉁이 서재

세네카(기원전 4년 ~ 65년)는 고대 로마 제국의 정치인이자 스토아 학파 철학자다. 네로 황제의 스승이기도 했다. 세네카의 잠언집인 은 에픽테토스의 과 핵심 내용이 거의 비슷하다. 둘 다 스토아 학파 철학자여서 삶의 지향점이 같았기 때문이다. 고대 로마의 대표적인 철학자를 꼽으라면 아우렐리우스, 세네카, 키케로, 에픽테토스 등이 있다. 아우렐리우스, 세네카, 에픽테토스의 에세이는 모두 읽었으니 키케로만 남았다. 사실 키케로의 책을 먼저 읽고 싶었는데, 책을 찾던 중 세네카의 이 우연히 눈이 띄어서 골랐다. 좋은 책은 많고 읽고 싶은 책도 넘쳐나니 종종 이렇게 계획에 없던 책들을 읽곤 한다. 의 큰 줄기는 '스토아 사상'이라 역시 나를 실망시키지 않았다. 이 책을 읽으며 노자의 도 다시 읽었는데, 스토아..

작년에 뤼디거 자프란스키의 를 읽었다. 니체 삶에 초점을 둔 전기라기보다는 사상의 전기였다. 내용이 쉽진 않아 꽤 집중해서 읽은 기억이 있다. 형광펜으로 밑줄을 그어가며. 이번에는 니체 삶을 중심으로 설명하는 전기를 읽고 싶었다. 그래서 고른 책이 수 프리도의 이다. 뤼디거 자프란스키의 가 512쪽이었는데, 수 프리도의 은 692쪽이다. 분량이 더 많지만 내용이 술술 읽혀 자프란스키 책보다 훨씬 빨리 읽었다. 니체가 쓴 책이나 그의 철학보다도 '삶'을 중심으로 정리를 해봤다. 순전히 나를 위해 정리한다. 기억을 보듬으려고. (이 글을 다 읽으려는 분이 한 명이라도 있을까 싶지만, 혹시 있다면 니체 사상에 대한 중요한 내용이 별로 없으니 뒤로 가기를 하는 게 좋겠습니다. 시간 낭비가 될 가능성이 큽니다.)..

여러 해 동안 을 5번 이상 읽은 것 같다. 지금까지 문예출판사(이휘영 역)와 소담출판사(유혜경 역) 버전을 읽었는데, 이번에는 열린책들(김예령 역) 버전을 읽어봤다. 민음사(김화영 역) 판본을 읽었는진 정확히 기억이 안 난다. 3~4개 출판사 가운데 어떤 출판사 버전이 더 나은진 비교가 어렵다. 서로 비교하며 읽은 건 아니고, 8년 동안 5~6번 읽어 시간 텀이 길기 때문이다. 더군다나 크게 불만족스러운 번역은 없었다. 취향에 따라 다르지만, 여러 출판사 가운데 나는 민음사 세계문학전집을 좋아한다. 민음사가 대체로 저자의 글을 있는 그대로 직역해서다. 의역이 더 쉽게 읽히긴 한다. 그렇지만 의역을 하면 옮긴이의 의도나 생각이 더해지는 경우가 있다. 잘 안 읽히더라도 저자의 글을 있는 그대로 읽고 싶어서..

장 자크 루소는 18세기 프랑스혁명에 직접적인 영향을 준 계몽 철학자다. 그는 문명을 비판하며 자연주의로 돌아가기를 주장했다. 루소의 대표 책은 세 가지다. , , 이다. 세 책은 서로 밀접하게 연결된다. 어떻게 연결되는지 알아보자. 먼저 은 원래 평등하던 인간이 왜 불평등해졌는지를 탐구하는 책이다. 국가와 문명이 발전하며 인간이 타락하는 과정을 자세히 다룬다. 루소는 때 묻지 않은 고대 사회로 시선을 고정한다. 루소에 따르면 태초 인간은 자유로웠다. 게다가 착했다. 서로 싸울 일도 없었다. 이기심이나 수치심도 없었다. 내가 한 장소에서 사과를 먹는데 누군가 다가와 같이 사과를 먹는다면 어떻게 했을까? 두 가지 선택지가 있다. 같이 먹거나, 번거로우면 피해서 다른 곳으로 가서 사과를 먹으면 된다. 어떤 ..

카프카 사진을 보자마자 떠오른 생각. '잘생겼다.' 카프카의 작품은 어렵기로 소문났다. 그래서 읽는 사람마다 해석이 다르다. 그나마 은 난해한 카프카 작품 가운데 쉬운 소설이다. 내용이 짧아서 두 번 읽었다. 어느 날 아침, 그레고르 잠자가 불안한 꿈에서 깨어났을 때 그는 침대 속에서 한 마리의 흉측한 갑충으로 변해 있는 자신의 모습을 발견했다. 그 유명한 카프카 의 첫 문장이다. 국내 여러 책에서 '갑충'으로 번역한다. 그래서 많은 사람들이 바퀴벌레나 딱정벌레 같은 모습을 상상한다. 실제로 에 넣은 삽화를 보면 다음과 같다. 하지만 프란츠 카프카는 특정한 벌레나 갑충을 의도하지 않았다. '벌레'라고만 써서 읽는 사람의 상상력 대로 생각하길 바랐다. 나도 일단은 바퀴벌레 같은 갑충으로 상상하고 책을 읽었..

에픽테토스는 그리스 스토아 학파 철학자다. 기원 후 55년 경에 태어났으며, 노예 출신이다. 그는 절음발이였는데, 주인이 부러뜨렸다는 기록도 있고, 선천적으로 절음발이라는 기록도 있다. 주인이 다리를 부러뜨리는데 아무런 저항을 하지 않고 '부러뜨릴 테면 부러뜨려 보세요.'라는 태도로 평온했다는 설이 있다. 에픽테토스는 결국 노예에서 해방됐다. 어떻게 노예에서 풀려났는지 알려지지 않았지만, 해방 후 자유민으로 살면서 철학 학교를 세워 학생을 가르쳤다. 에픽테토스는 '아리아노스'라는 제자를 두었는데, 아리아노스가 에픽테토스의 강의와 말을 바탕으로 책을 썼다. 마치 플라톤이 소크라테스에게 배운 내용을 글로 남긴 것처럼 말이다. 소크라테스처럼 에픽테토스도 평생 글을 남기지 않았다. 우리가 에픽테토스의 가르침을 ..

은 명나라 말기(1610년 전후)에 홍자성이 쓴 잠언집이다. 채근담은 '풀뿌리 이야기', '풀뿌리를 씹는 이야기'라는 뜻이다. 풀뿌리를 씹는 마음가짐으로 산다면 결국엔 해낸다는 말이다. 이것이 의 큰 주제다. 전집과 후집으로 나뉘는데, 전집 222칙과 후집 141칙의 잠언이 담겨 있다. 전집에서는 젊은 시절 사람과 교류할 때의 처세술을 말하고, 후집에서는 노후에 자연과 살아가는 즐거움에 대해 말한다. 불교, 유교, 도교 사상이 함께 깃들어 있다. 한문학자 안대회 교수가 평역한 민음사 버전을 읽었다. 번역도 괜찮고, 책 디자인도 마음에 들었다. 편집이 비교적 훌륭한 책이다. 역시 민음사! 매일 샤워한 뒤 책상에 앉아 10칙씩 읽었다. 그러니 다 읽는 데 약 한 달이 걸렸다. 그날 읽은 잠언 중 가장 마음에..

구글, 페이스북, 마이크로소프트에서 프로덕트 매니저로 일하는 닐 메타, 아디티야 아가쉐, 파스 디트로자가 쓴 IT 상식책이다. 비전공자도 이해할 수 있게 IT 지식을 쉽게 설명해놨다. 질문에 답하는 방식으로 구성돼서 흥미를 끌며 이야기를 풀어간다. 번역도 잘해놔서 글도 술술 읽힌다. 따로 시간 내서 각 잡고 읽진 않았고, 양치할 때나 밥 먹을 때 틈틈이 읽었는데도 금방 읽었을 정도다. 가독성, 흥미, 스토리텔링 모두 괜찮은 책이다. 타임 킬링용으로 적합! 1장 소프트웨어 개발 1-1. 구글 검색은 어떻게 작동할까? 사용자가 검색어를 입력할 때마다 구글이 수많은 웹페이지를 일일이 접속하진 않는다. 대신 데이터베이스에 각 웹페이지 정보를 저장해두고 알고리즘을 이용해 무엇을 보여줄지 정한다. [크롤링] 구글은..

때때로 를 본다. 최신 기술 동향을 소개하는 잡지다. 한 달만 지나도 놀라운 기술이 개발되고, 기술을 접목한 신기한 사례가 나타난다. 어떤 기술이나 사례가 있는지 궁금해서 가끔 를 본다. 이 책을 읽은 까닭은 저자 정두희 교수가 편집장이기 때문이다. 에 의 여러 기사를 잘 정리해 놓았으리라 생각해서다. 예상대로 다양한 기사에 실은 글을 종합해 놓았다. 보편적인 내용도 많다. 그렇지만 수치와 경험을 바탕으로 설명하니 임팩트가 있다. AI 기술을 기업에 접목해 변혁을 하려는 경영진이 읽으면 좋을 책이다. 왜 AI 적용 기업의 90%는 수익 창출에 실패하는가 AI 프로젝트를 추진한 기업 가운데 11%만이 수익을 창출했다. 6개월~2년에 걸친 AI 프로젝트를 추진해 고도화된 기능을 만들었지만, 실제로 가치 창출..

시리즈로 소개한 제 책 《머신러닝·딥러닝 문제해결 전략》의 마지막 글을 공유합니다. 이번 글에서는 머신러닝 문제를 실제로 풀어가는 과정을 소개합니다. 탐색적 데이터 분석부터 베이스라인 모델 설계, 성능 개선까지 차근차근 설명합니다. 수많은 캐글 수상작을 리팩터링한 문제해결 프로세스를 이 글에서 경험해보시기 바랍니다. [캐글 안내서] 캐글러들은 머신러닝 딥러닝 문제를 어떻게 풀까? https://bit.ly/387QO9Q 캐글이란 무엇인지, 캐글을 어떻게 시작해야 하는지 궁금하다면 이전 글들 먼저 읽어주세요. [캐글 안내서] 캐글, 이렇게 시작하세요 https://bit.ly/3ytYvSr [캐글 안내서] 왜 캐글을 해야 할까? https://bit.ly/3N056bv

책 속의 글을 소개하는 이번 시간에는 캐글이란 무엇이고, 왜 해야 하는지, 주요 메뉴 구성과 개념을 소개한 ‘[캐글 안내서] 왜 캐글을 해야 할까?’에 이어 캐글에 가입하고 경진대회에 참여해 결과를 제출해 컨트리뷰터가 돼 보는 전 과정을 스크린샷과 함께 살펴봅니다. 속 이 두 글이면 캐글을 시작하는 데 충분할 안내가 될 것입니다. 두 글을 무료로 공개합니다. [캐글 안내서] 캐글, 이렇게 시작하세요 https://bit.ly/3ytYvSr [캐글 안내서] 캐글을 왜 해야 할까? https://bit.ly/3N056bv

“데이터 과학자를 위한 놀이터.”라고도 불리는 캐글. 캐글은 데이터 과학, 머신러닝 경진대회를 주관하는 온라인 커뮤니티입니다. 어떤 이유에서 수많은 데이터 과학자들이 왜 캐글을 추천할까요? 캐글이란 무엇이고, 이를 통해 무엇을 얻을 수 있을까요? 취업에는 어떤 도움이 될까요? 의 단편 글에서 왜 캐글을 시작해야 하는지 그 의문에 답을 드립니다. '캐글이란 무엇이고, 인공지능과 데이터 과학의 위상이 날로 높아지는 오늘날 캐글이 왜 중요한지' 설명하는 챕터 전체를 무료로 공개합니다. 다음 링크에서 보실 수 있습니다. https://bit.ly/3N056bv

은 지금까지 세 번 읽었다. 내게 꽤 큰 영향을 준 책이다. 정신없이 살았고, 그걸 즐기는 이상한(?) 성향을 가진 나를 잠깐 멈춰 세웠다. 멈춰 세운 책은 많지만 은 더 적극적으로 나를 저지했다. 그렇다고 이 내 인생 책인 건 아니다. 그렇지만 소로가 부를 누릴 충분한 능력을 가졌는데도 그 능력을 쿨하게 버렸다는 점이 내게 영향을 많이 줬나 보다(다른 얘기지만, 그런 점에서는 비트겐슈타인도 대단하다). 헨리 데이비드 소로는 1817년 미국 콩고드에서 태어난 시인이자 초월주의 철학자다. 법정 스님과 마하트마 간디에게 크게 영향을 미친 사람이다. 소로는 하버드 대학교를 졸업했지만 세속에서 벗어나 자연을 벗 삼아 살기를 원했다. 그 결과 28살 때 미국 매사추세츠주 콩코드에 있는 월든 호숫가에서 2년 2개월..

200개가 넘는 블로그 글을 쓰며 제 이야기를 하는 건 이번이 처음이네요. 제목 그대로 《머신러닝·딥러닝 문제해결 전략》이라는 책을 출간했습니다. 캐글 경진대회로 머신러닝, 딥러닝 문제해결 능력을 키우는 데 도움을 주는 책입니다. 어떤 일이든 일정 수준에 도달하면 최적화된 패턴이 있기 마련이죠. 여러 캐글 수상자의 코드를 리팩터링하며 찾아낸 공통된 패턴과 전략을 이 책에 담았습니다. 엄선한 7가지 캐글 경진대회(머신러닝 대회 4가지와 딥러닝 대회 3가지)로 기본기와 문제해결 능력을 확실하게 기를 수 있을 겁니다. 단순히 코드만 따라 하는 게 아닙니다. 어떤 점을 분석해야 하는지, 분석 결과를 어떻게 적용하는지, 이 기법이 왜 유용한지, 특정 기법을 어떻게 활용하는지까지 점진적으로, 그리고 체계적으로 알려..

SSD는 여러 합성곱 계층의 피처 맵마다 디폴트 박스로 객체를 탐지하는 모델입니다. 본 글에서 주요 내용 위주로 SSD 논문을 번역/정리했습니다. 글 중간에 로 부연 설명을 달아놓기도 했습니다. 틀린 내용이 있으면 피드백 부탁드립니다. 논문 제목: SSD: Single Shot MultiBox Detector 저자: Wei Liu, Dragomir Anguelov, Dumitru Erhan, Christian Szegedy, Scott Reed, Cheng-Yang Fu, Alexander C. Berg 개정 발표: 2016년 12월 (첫 발표: 2015년 12월) Abstract 본 연구진은 단일 깊은 신경망(single deep neural network)을 사용한 객체 탐지 기법, SSD를 제안합니..

1년 반 전에 이미 본 책이긴 한데 글쓰기 기법을 한 번 더 점검하려고 읽었다. 글쓰기 책 대부분이 비슷한 얘기를 해서 더 읽으려 하진 않았지만, 그러면서 놓친 게 있진 않나 하는 마음에 또 읽어본다. 책이 얇기도 하고, 각설하며 바로 글쓰기 기법을 다루니 맘에 들었다. 휘휘 돌려서 서론을 길게 말하지 않고 바로 수업을 시작하는 강의 같았다. 저자 김정선 님은 30년 가까이 교정교열 일을 해온 분이다. 그는 이렇게 말한다. 문장을 다듬는 일에 무슨 법칙이나 원칙 같은 게 있는 것처럼 말할 수는 없다. 김정선 님은 어느 날 한 저자에게 "내 문장이 그렇게 이상한가요?"라는 메일을 받았다. 그는 답신을 보냈다. 모든 문장은 다 이상합니다. 모든 사람이 다 이상한 것처럼 말이죠. 제가 하는 일은 다만 그 이상..

Faster R-CNN은 기존 Fast R-CNN에 영역 추정 네트워크(RPN)를 더해 속도와 성능을 끌어올린 모델입니다. Faster R-CNN에 와서야 비로소 모든 객체 탐지 구조를 딥러닝으로 훈련할 수 있었습니다. 본 글에서 주요 내용 위주로 Faster R-CNN 논문을 번역/정리했습니다. 글 중간에 로 부연 설명을 달아놓기도 했습니다. 틀린 내용이 있으면 피드백 부탁드립니다. 논문 제목: Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks 저자: Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun 개정 발표: 2016년 1월 (첫 발표: 2015년 6월) Abst..

니코스 카잔차키스는 그리스 문학을 대표하는 작가다. 두 번이나 노벨 문학상 후보에 올랐고, 알베르 카뮈가 "니코스 카잔차키스야말로 나보다 백 번은 더 노벨문학상을 받았어야 했다."라는 말을 남길 정도로 명망이 높다. 는 카잔차키스의 대표작이다. 니코스 카잔차키스가 젊었을 때 조르바라는 실존 인물을 만났는데, 그 사람에게 영감을 받아 쓴 책이 다. 화자인 '나'가 '주인공인 조르바'를 관찰하고 서술하는 내용이다. 조르바는 자유로운 사람이다. 무엇에도 예속받지 않고 현재 삶을 즐기는 사람이다. 관습을 무시하고 스스로 정한 가치를 중요하게 여기는 사람이다. 반면 화자는 엘리트 지식인이다. 책도 상당히 많이 읽고, 사회에서 바라는 대로 살아온 사람이다. 하지만 육체노동을 하는 쾌남(?) 조르바를 만난 뒤, 삶을..

본 글에서 주요 내용 위주로 Fast R-CNN 논문을 번역/정리했습니다. 글 중간에 로 부연 설명을 달아놓기도 했습니다. 틀린 내용이 있으면 피드백 부탁드립니다. 논문 제목: Fast R-CNN 저자: Ross Girshick 기관: Microsoft Research 개정 발표: 2015년 9월 (첫 발표: 2015년 4월) Abstract 본 논문에서는 '빠른 공간 기반 합성곱 신경망 모델(Fast Region-based Convolutional Network method, Fast R-CNN)'을 소개합니다. Fast R-CNN은 이전의 R-CNN이나 SPP-net과 비교해, 속도도 빠르고 성능도 좋습니다. Fast R-CNN은 PASCAL VOC 2012에서 R-CNN보다 VGG16 네트워크를 9..

본 글에서 주요 내용 위주로 SPP-net 논문을 번역/정리했습니다. 글 중간에 로 부연 설명을 달아놓기도 했습니다. 틀린 내용이 있으면 피드백 부탁드립니다. 논문 제목: Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition 저자: Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun 개정 발표: 2015년 4월 (첫 발표: 2014년 6월) Abstract 심층 합성곱 신경망(CNN)에는 고정된 크기(ex. 224 x 224)를 갖는 이미지를 입력해야 합니다. CNN의 전결합 계층 크기가 일정해서 입력 이미지의 크기도 고정되어야 합니다. 기존 R-CNN에서 warping을 하는 이유..