본문: 이 게시물에서는 Amazon EC2에서 Oumi를 사용하여 Llama 모델을 미세 조정하고(Oumi를 사용하여 합성 데이터를 생성할 수 있는 옵션도 포함하여), Amazon S3에 아티팩트를 저장한 다음, 관리형 추론을 위해 Custom Model Import를 사용하여 Amazon Bedrock에 배포하는 방법을 보여드립니다.
Programming Notes
제목: 맞춤형 LLM 배포 가속화: Oumi로 미세 조정하고 Amazon Bedrock에 배포하기
본문: 이 게시물에서는 Amazon EC2에서 Oumi를 사용하여 Llama 모델을 미세 조정하고(Oumi를 사용하여 합성 데이터를 생성할 수 있는 옵션도 포함하여), Amazon S3에 아티팩트를 저장한 다음, 관리형 추론을 위해 Custom Model Import를 사용하여...