전체 글 109

Startup Company 한글 패치

아래 파일을\resources\app\languages 경로에 붙여넣으십시오. 이후 패치에 따라 추가적인 번역이 필요할 수 있으며 번역 시 특이사항에 대해선 아래에 적어두겠습니다. Industrial Coffee Machine - 산업용이라 번역하니 너무 웃겨 대형으로 함...Framework - 프레임워크로 번역 (뜻이 뼈대, 틀이라 애매함)Designer - 디자이너의 경우 아트/설계 둘 다로 사용되어 "디자이너"로 번역 / 해결 - 아트로 판명Lead Developer - 구성 요소를 모듈로 병합하는 사람 번역: hiuaa 번역에 문제가 있다면 알려주시면 감사하겠습니다. 그리고 스팀에서 파일 변조 때문에 벤당하는 경우가 있으니 사용 시 발생하는 문제점에 대해서는 책임지지 않겠습니다!

게임/미분류 2017.08.28

파이썬 넘파이를 이용한 두 배열 동시에 섞기 (Use python numpy to shuffle 2 arrays at same time)

파이썬을 numpy 라이브러리를 이용하여 배열을 섞는 방법에 대해 알아보겠다.(뭐, 다른 사람이 해놓은 것을 번역한 거라 보면 된다.) 이 방법을 사용한 이유는 머신러닝에서 데이터를 학습시킬 때 편향되지 않은 학습을 시키기 위함이다. 단순히 한 개의 배열을 섞을 때는 아래와 같은 방법을 사용한다.import numpy as np x = np.arange(10) print ("x: ", x) np.random.shuffle(x) print ("x: ", x) 출력의 경우 매번 다르겠지만 이런 형태로 나온다.x: [0 1 2 3 4 5 6 7 8 9]x: [7 5 8 6 3 1 4 9 0 2] 두 개의 배열을 같은 순서로 섞고 싶다면 어떻게 해야할까? 아래 코드와 같이 그냥 섞으면 결과는 참담하다.impor..

네이피어 계산봉

Napier's bones(https://en.wikipedia.org/wiki/Napier%27s_bones) 컴퓨터의 발전과정에 대해 알아보는 중 17세기 네이피어가 고안한 Napier's bones 에 대해 조사하였다.1980년 컴퓨터가 일반화되기 전 중국에서 개발된 수판, 그리고 네이피어가 고안한 Napier's bones 가 사용되었다. (파스칼, 라이프니쯔의 계산기 등도 많이 사용되었다.)이의 사용법은 아래 와 같다. Napier's bones 405 (1->4) 405 를 곱할 때 아래의 방법으로 한다. 405 를 1번 곱하면 당연히 405이다.그렇다면 2를 곱하면 어떻게 될까? 각 자리수에 다음과 같이 더하면 된다. 처음에 0을 넣고 두 번째에 8+0을 넣고 그 다음에 0+1을 넣고 마지막..

Decision Tree (1/41) -> (41/41)

Decision Tree (앞으로 DT라 말하겠다.) 는 SVM 에 비해 고안된지 오래되었고 매우 강건한 (Robust) 방법이다. 그리고 DT 또한 SVM 의 kernel trick 과 같은 방법으로 비선형(non-linear)을 선형(linear)으로 나타내어 분류할 수 있다. 자, 알아들을 수 없는 소리는 여기까지하고 쉬운 예들로 DT 에 대해 설명하겠다. DT Windsurf 을 살펴보자.철수가 윈드서핑을 한다고 하자. 윈드서핑을 할 때는 바람도 많이불고 햇빛도 많이 비춰야한다. (그렇다고 태풍에 열사병이 걸릴 정도는 아니다.) 이 경우 빨간색 원은 윈드서핑을 할 수 없는 날씨, 녹색 삼각형은 윈드서핑을 할 수 있는 날씨이다. 이러한 경우 윈드서핑 가능여부를 선으로 나눌 수 있나? (Linearl..

엔트로피 (Entropy)

엔트로피를 처음 접한 것은 열역학에서이다. 하지만 이번에 소개할 엔트로피는 에서의 엔트로피이다. 엔트로피는 주어진 정보에서 내가 그 정보를 모두 다 아는데 소모되는 데이터의 양이다. (정보의 불확실성이라 표현하는 것도 적절하다.) 동전을 던지는 예로 생각해 보자. 을 살펴보자. Entropy_Coin 은 앞뒤가 같은 색이고 는 앞은 검은색, 뒤는 빨간색이다. 의 경우 색을 알아보기 위해 동전을 살펴볼 필요가 없다. (Entropy = 0) 의 경우 색을 알아보기 위해 앞과 뒤를 보아야 한다. (Entropy = 1) (이 경우 앞만 보면 되지 않냐고 할 수 있는데 엔트로피의 정의대로 하면 두쪽을 다 보는 값과 같다.) 엔트로피의 식은 아래와 같다.$Entropy(H) = \sum_{i}-P_i\log_{..

SVM (Support Vector Machine) (1/38) -> (38/38)

좀 늦었네요. 이번 글에서는 SVM (Support Vector Machine) 에 대해 소개할 것이다. (러시아 사람에 의해 고안되었다. 이름은 못찾겠는데 시간나면 찾아서 업데이트 하겠다.) SVM 은 지도학습을 통한 분류 (Supervised Classification) 이다. 앞서 소개한 Naive Bayes 와 다른 점은 Hyper dimension 을 사용한다는 것이다. 그림들을 이용하여 선형 (Linear) SVM 의 특징에 대한 소개를 하겠다. (비선형도 존재한다.) SVM Classification 에서 SVM을 이용하여 과 을 구분 (Classify) 한다면 어떤 선으로 구분할까? 답은 (아마도) 이다. SVM Margin 그렇다면 에서 SVM 을 이용하여 분류한다면 어느 선으로 분류될까..

Naive Bayes (22/43) -> (43/43)

이번 강의에서는 Bayes Rule 부터 시작해서 Naive Bayes 까지를 다룬다. Bayes Rule 은 Thomas Bayes 에 의해 고안되었다. 처음 이 법칙은 신이 있음을 증명하기 위해 만들어졌는데 이후 통계뿐 아니라 많은 분야에서 사용되고 있다. Bayes Rule 은 $P(A|B) = \frac{P(B|A)*P(A)}{P(B)}$ 이다.(여기서 $P(A|B)$ 는 조건부 확률이라 하며 B 가 일어났다고 할 때 A 가 일어날 확률이다. 예를 들어 A 가 암에 걸릴 확률이고 B 가 남자일 확률이면 $P(A|B)$ 는 남자인 사람 중에 암에 걸릴 확률을 뜻한다.)Bayes Rule 의 경우 $P(A|B)$ 와 $P(B|A)$ 중 직관적 혹은 쉽게 구할 수 없는 것을 다른 것을 통해서 쉽게 구할..