일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- shadowing
- Knowledge Distillation
- Excel
- clip intensity values
- fastapi
- 자료구조
- straightup
- non parametic softmax
- Inorder Traversal
- objective functions for machine learning
- MRI
- freebooze
- sidleup
- Actor-Critic
- checkitout
- Policy Gradient
- resample
- REINFORCE
- remove outliers
- pulloff
- scowl
- model-free control
- sample rows
- noise contrast estimation
- 3d medical image
- domain adaptation
- rest-api
- normalization
- loss functions
- thresholding
- Today
- Total
목록전체 글 (57)
Let's Run Jinyeah
오름차순 기준으로 정렬 내림차순: 오름차순을 뒤집기 with 시간복잡도 O(N) 선택정렬 가장 작은 것을 선택해서 맨 앞 원소와 swap하는 과정을 N-1번 반복 매번 가장 작은 원소를 찾기 위해 비교 연산 해야함 - 시간복잡도 O(N^2) for i in range(len(array)): min_index = i for j in range(i+1, len(array)): if array[min_index] > array[j]: min_index = j array[i], array[min_index] = array[min_index], array[i] 삽입정렬 선택정렬처럼 직관적으로 이해하기 쉬운 알고리즘, 실행 시간 측면에서 더 효율적 O(N^2) - 현재 리스트의 데이터가 거의 정렬되어 있는상태라면..
Outline 완전탐색 DFS/BFS 완전탐색(브루트 포스) 모든 경우의 수를 탐색 전체 데이터 개수가 100만 개 이하일 때 사용 DFS/BFS 그래프 탐색 알고리즘 재귀함수의 수행은 스택 자료구조 이용 스택, 큐 관련 기초지식 그래프 관련 기초지식 DFS(깊이 우선 탐색) 특정한 경로로 탐색하다가 특정한 상황에서 최대한 깊숙이 들어가서 노드를 방문한 후, 다시 돌아가 다른 경로를 탐색 스택 자료구조에 기초(선입후출) 스택을 이용하는 알고리즘이기 때문에 실제 구현은 재귀함수를 이용했을 때 매우 간결 시간복잡도 O(N) def dfs(graph, v, visited): visitied[v] = True print(v, end ='') for i in graph[v]: if not visitied[i]: ..

그래프 구성 노드(node) 간선(edge) 그래프 종류 무방향 그래프 vs 방향 그래프 무방향 그래프: 간선을 통해 양방향으로 갈 수 있다 방향 그래프: 간선에 방향성이 존재 연결 그래프 vs 비연결 그래프 연결 그래프: 무방향 그래프에 있는 모든 정점 쌍에 대해서 항상 경로가 존재하는 경우 비연결 그래프: 무방향 그래프에서 특정 정점쌍 사이에 경로가 존재하지 않는 경우 사이클 vs 비순환 그래프 사이클: 단순 경로의 시작 정점과 종료 정점이 동일한 경우 단순 경로: 경로 중에서 반복되는 정점이 없는 경우 비순환 그래프: 사이클이 없는 그래프 완전 그래프 그래프에 속해있는 모든 정점이 서로 연결되어 있는 그래프 그래프 구현 방법 - 2차원 리스트 1. 인접행렬: 2차원 배열로 그래프의 연결 관계를 표현..

Basic data structures array, list, tuple linked list set, dictionary graph, tree stack, queue Stack(=array) 선입후출 리스트 라이브러리 이용 append(): 리스트의 가장 뒤쪽에 데이터 삽입 pop(): 리스트의 가장 뒤쪽에서 데이터 꺼냄 Queue 선입선출 collections 모듈에서 제공하는 deque 자료구조 활용 속도가 리스트 자료형에 비해 효율적이며, queue 라이브러리를 이용하는 것보다 더 간단 from collections import deque queue = deque() queue.append((x,y)) x, y = queue.popleft() Linked List Why?(=Array limit..

알파고에 쓰인 시뮬레이션 기반 Model-Based RL 방법에 대해 알아보겠다. Outline 1. Introduction What is Model? Model-Free RL vs Model-Based RL Advantages of Model-Based RL 2. Model-Based RL Model Learning Planning with a Model 3. Integrated Architectures Dyna 4. Simulation-Based Search Simple Monte-Carlo Search Monte-Carlo Tree Search(MCTS) Temporal-Difference Search Introduction What is Model? MDP including Transition p..

이전 포스트에서 각 상태, 액션에 실제 가치에 근사값을 구하는 방법에 대해 알아보았습니다. Control(Policy Iteration) with Value approximation에서는 가치함수를 기반으로 정책을 그리디하게 정하기 때문에 결정론적인 정책을 가집니다. 이번 포스트에서는 정책함수를 기반으로 액션을 선택하여 stochastic 정책을 생성하는 Contorl with policy gradient 방법에 대해 알아보겠습니다. Outline 1. Introduction to Policy-Based Reinforcement Learning Value-Based vs Policy-Based vs Actor-Critic Advantages of Policy-Based RL Policy Search 2...

이전 포스트(Model-Free Control)에서 가치함수에 근거하여 액션을 선택하는 Sarsa와 Q러닝 기법에 대해 알아보았습니다. 하지만 상태 공간과 액션 공간이 매우 커서 밸류를 일일이 lookup table에 담지 못하는 상황에서 모든 상태, 액션에 대한 밸류를 어떻게 계산해야할까요? 이번 포스트에서는 뉴럴넷과 강화학습을 접목하여 이에 대한 해결책을 찾아보겠습니다. Outline 1. Incremental Methods Stochastic Gradient Descent Control with Value Function Approximation Incremental Contorl Algorithm 2. Batch Methods Stochastic Gradient Descent with Experi..

Variance & Bias Bias - the difference between the average prediction of model and the correct value(center of Target) Variance - variability of model prediction(예측값들의 분산된 정도) Underfitting model? usually have high bias and low wariance happens when have very less data or try to build a linear model with a nonliner data Overfitting model? usually have low bias and high variance happens when our mo..