파이썬 공식 웹사이트에서 설명하고 있는 pickle은 아래와 같다. : pickle 모듈은 파이썬 객체 구조를 직렬화 및 역직렬화하기 위한 바이너리 프로토콜을 구현한다. "Pickling"은 파이썬 객체 계층 구조를 바이트 스트림으로 변환하는 프로세스이며, "Unpickling"은 그 반대의 작업으로, 바이너리 파일 또는 바이트-열 객체에서 바이스트 스트림을 객체 계층 구조로 다시 변환하는 작업이다. : The pickle module implements binary protocols for serializing and de-serializing a Python object structure. “Pickling” is the process whereby a Python object hierarchy is..
Proxy (프록시), Proxy Server (프록시 서버) 라는 용어는 기술과 관련된 분야에 종사하지 않아도 심심찮게 들을 수 있다. 우선 Proxy에 대해 알아보자. Proxy란 Server(서버)와 Client(클라이언트) 사이에서 대리로 통신을 수행하는 것을 의미한다. 그리고, Proxy Server는 그 중계 기능을 담당하는 server를 의미한다. Proxy server를 사용하는 데에는 아래와 같은 이유가 있다. Proxy server의 cache data 활용이다. 즉, client가 요구한 data가 cache에 존재하고 있다면, server에 접속하지 않고 cache에 저장된 data를 빠르게 client에게 전달해 시간을 절약함과 동시에 sever로 들어오는 traffic 줄이는 효..
Hidden Markov Model의 몇 가지 용어에 대해 알아보자. Emission Probability (Observation Probability, 방출 확률, 관측 확률) : Hidden state (variables, 변수)를 관측 변수(observation variables)와 연관시키는 것으로, 특정 hidden state가 주어졌을 때 특정 visible state (obsevation, 관측)를 관찰할 확률을 의미 Prior Probability (사전 확률) : observation (관측)을 보기 전에 특정 상태에 있을 화률 (HMM의 맥락에서 초기 상태 분포(initial state distribution)라고도 함) Transition Probability (전환 확률) : 한 h..
N-Gram Language Model에서 발견되지 않은 n-gram에 대한 확률 0을 다루는 두 가지 기술에 대해 알아보자. 두 전략 모두 가능한 모든 n-gram이 0이 아닌 확률을 갖도록 하여 Language Model의 견고성(robustness)와 정확성(accuracy)를 향상시키도록 설계되었으며, 이는 학습 데이터가 희소하거나 불완전한 경우에 유용하다. backoff는 데이터가 누락된 경우 더 간단한 모델로 단계적으로 축소하는 방법을 제공하며, interpolation은 다양한 모델 복잡성의 정보를 혼합해 더 많은 정보를 바탕으로 예측할 수 있도록 한다. Backoff : 이 전략은 모델이 학습 데이터에서 볼 수 없었던 n-gram을 발견할 때 사용된다. 확률을 0으로 할당하는 대신, 모델은..
7. Results 이 알고리즘을 개발하는 동안 다양한 테스트 mesh가 사용됐다. 그 중 4개에 대한 결과가 여기에 나와있다. 이 중 3개는 일반적인 인터랙태브(예: 게임) mesh를 대표하며, 1개는 알고리즘의 건전성 검사에 사용된 보다 이상화된 mesh다. 이상화된 mesh의 결과는 지형 높이 필드(terrain height-fields)나 세밀하게 tesellated 모델과 같이 매우 규칙적인 표면과 관려히 있지만, 알고리즘의 방향에 큰 영향을 미치지는 않았으며, 보다 현실적인 mesh를 훨씬 더 중요하게 고려했다. mesh의 종류는 다음과 같다: GrannyRocks: 흔들 의자에 앉은 할머니 mesh다. Grann Viewer(http://www.radgametools.com/gradown.h..
5. The Constants 위 코드에 사용된 4개의 상수는 추측과 판단, 며칠 동안의 무차별(brute-force) 대입을 통해 아주 전형적인 데이터 세트와 아주 전형적인 hardware cache 구조의 시뮬레이션을 통해 전송된 결과를 종합해 가장 좋은 점수를 얻은 것으로 결정되었다. 아직 발견되지 않은 더 나은 설정과 값이 존재할 가능성도 있다. 또한 점수에 거듭제곱 함수를 사용하는 것이 적절한 함수인지 여부와 다른 함수나 사용자가 커스터마이징한 look-up-table을 사용하는 것이 더 나을 결과를 낳을 수도 있다. 그러나 도출된 결과는 최적이라고 간주되는 값에 상당히 근접하며, 나머지 개성 사항은 거의 없을 것으로 보인다. 요약하자면, 이러한 값은 대부분의 목적에 "충분히 좋은" 것으로 보인..
계속해서 살펴보자. 4. Vertex Scores in Detail 주어진 정점의 점수는 해당 정점을 사용하는 삼각형이 다음에 렌더링 목록에 추가될 가능성을 나타낸다. 점수가 높을수록 가능성이 높아지고 점수가 낮을수록 가능성이 낮아진다. 점수는 여러 가지 요소에 따라 달라진다. 첫 번째는 정점이 최근에 사용되었을 수록 점수가 높다는 것이다. 점수는 LRU cache에서 정점의 위치를 0에서 1 사이의 실수로 계산하는데, 마지막(LRU) 위치는 0이고 첫 번째(MRU) 위치는 1이다. 그런 다음 이 스케일링된 위치는 1보다 큰 거듭제곱으로 올라간다. 거듭된 시뮬레이션을 통해 거듭제곱의 값을 선택했는데, 1.5가 좋은 결과를 가져다주는 것으로 보인다. 단순한 선형 점수가 아닌 거듭제곱을 사용하면 규모에 더 ..
- Total
- Today
- Yesterday
- 파이썬
- 투 포인터
- leetcode
- join
- Python
- The Economist
- java
- 이코노미스트 에스프레소
- Android
- Hash Map
- 리트코드
- 안드로이드
- Computer Graphics
- min heap
- DICTIONARY
- tf-idf
- vertex shader
- 오블완
- machine learning
- C++
- 소켓 프로그래밍
- 이코노미스트
- 티스토리챌린지
- I2C
- socket programming
- 딕셔너리
- 머신 러닝
- The Economist Espresso
- ml
- defaultdict
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | |||||
| 3 | 4 | 5 | 6 | 7 | 8 | 9 |
| 10 | 11 | 12 | 13 | 14 | 15 | 16 |
| 17 | 18 | 19 | 20 | 21 | 22 | 23 |
| 24 | 25 | 26 | 27 | 28 | 29 | 30 |
| 31 |
