summary(6)
-
CURSOR 잘 사용하기(0.46 버전 기준)-25.03.03 (.cursorrules / .cursorindexingignore, .cursorignore)
CURSOR가 이번에 업데이트가 되면서, 화면 구조가 바뀌었고, 몇몇 기능이 추가가 되었다.추가가 된 김에 잘 사용하려면 어떤 것을 해야할 지 정리해보고자 한다. 아래 블로그에 잘 정리되어 있어서, 이걸 보시는 것도 추천드립니다.특히 MCP에 대한 설명에 대해서 상세하게 작성해줘서 MCP가 필요한 부분은 참고하시면 좋을 것 같습니다. https://youtu.be/f2ibNsDdJ0U?si=t9YOSBeUssVf5UD8 주오 업데이트 (0.46.x)1. Agent가 기본 모드로 설정됨이전에는 Chat, Composer, Agent 세 가지 모드가 존재했지만, 이제는 Agent가 기본 모드가 되어 보다 강력하고 통합된 AI 경험을 제공합니다.이를 통해 사용자가 모드를 전환하는 과정에서 혼란을 줄이고, 하..
2025.03.03 -
TimeSeries) Transformer 기반 Time Series Forecast 논문 알아보기
2023.07.05 - [ML(머신러닝)/Time Series] - Transformer 기반 Time Series Forecast 논문 알아보기 2023.07.06 - [ML(머신러닝)/Time Series] - TimeSeries Forecast) Transformer보다 좋다는 LSTF-Linear 알아보기 2023.07.12 - [ML(머신러닝)/Time Series] - TimeSeries) PatchTST 논문과 코드 살펴보기 2023.10.13 - [분류 전체보기] - TimeSeries) TSMixer 논문 및 구현 살펴보기 일단 시작 전에 많은 Transformer 기반의 Time Series Forecast를 하는 논문들이 나오고 있다. 1. Informer (AAAI 2021) 2. ..
2023.07.05 -
[ML] 앙상블 모델 테크닉
앙상블 학습 방법 사용의 장점 앙상블 기법을 솔로 모델과 비교하면 앙상블 방법이 더 큰 예측 정확도를 제공한다. 편중(bias)과 분산(variance)은 앙상블을 통해 줄일 수 있다. 대부분의 경우 모델의 과적합 또는 과소적합이 방지됩니다. 앙상블 모델은 더 안정적이고 노이즈가 적다. 앙상블 테크닉 정리 1. Bagging - 단일 데이터세트를 인스턴스별로 하위 집합으로 나눕니다(병렬로 작동) 2. Boosting - 단일 데이터세트를 인스턴스별로 하위 집합으로 나눕니다(순차적으로 작동). 3. Stacking - 다른 분류기 사용 Bagging 배깅의 목표는 많은 모델의 출력을 통합하여 보다 정확한 결과를 제공하는 것이다. 그러나 문제는 모든 모델을 동일한 데이터 집합을 사용하여 만든 다음 결과를 집..
2022.07.16 -
[Pytorch] torch에서 모델 summary 확인하는 방법
pytorch에서 keras처럼 summary를 정리해주는 함수가 있어서 공유한다. 찾다 보면 좋은 툴이 많은 것 같다(굳굳) Keras처럼 파라미터 개수랑 용량을 제공해준다! import torch from torch import nn from torchsummary import summary as summary_ from torch.nn import functional as F class MnistModel(nn.Module): def __init__(self): super(MnistModel, self).__init__() # input is 28x28 # padding=2 for same padding self.conv1 = nn.Conv2d(1, 32, 5, padding=2) # feature..
2020.08.25 -
A Novel Framework for Selection of GANs for an Application -논문 리뷰
이 논문에서는 GAN에서 겪는 문제점들에 대해서 언급하고 이제까지 나온 논문들을 모든 것은 아니지만, 핵심적인 것들에 대해서 정리해주는 것 같아서 읽어보면서 재정리해보고자 한다. 이 논문에서는 크게 architecture, loss , regularization, divergence를 기반으로 특정 사용 사례에 대한 후보 GAN을 식별하기위한 새로운 프레임 워크를 제안한다고 함. https://arxiv.org/abs/2002.08641 GAN에서 크게 이슈가 제기되는 점은 다음과 같다. mode collapse vanishing gradient unstable training non-convergence GANs game theory : a two-player minimax game discrimina..
2020.03.08 -
Ensemble Neural Network Architectures
Neural Network Ensemble 정리 자료 by 이성령 on Scribd
2020.01.25