Starcoder2

Download Starcoder2 PDF/ePub or read online books in Mobi eBooks. Click Download or Read Online button to get Starcoder2 book now. This website allows unlimited access to, at the time of writing, more than 1.5 million titles, including hundreds of thousands of titles in various foreign languages.
Hands-On Large Language Models

Author: Jay Alammar
language: en
Publisher: "O'Reilly Media, Inc."
Release Date: 2024-09-11
AI has acquired startling new language capabilities in just the past few years. Driven by the rapid advances in deep learning, language AI systems are able to write and understand text better than ever before. This trend enables the rise of new features, products, and entire industries. With this book, Python developers will learn the practical tools and concepts they need to use these capabilities today. You'll learn how to use the power of pre-trained large language models for use cases like copywriting and summarization; create semantic search systems that go beyond keyword matching; build systems that classify and cluster text to enable scalable understanding of large amounts of text documents; and use existing libraries and pre-trained models for text classification, search, and clusterings. This book also shows you how to: Build advanced LLM pipelines to cluster text documents and explore the topics they belong to Build semantic search engines that go beyond keyword search with methods like dense retrieval and rerankers Learn various use cases where these models can provide value Understand the architecture of underlying Transformer models like BERT and GPT Get a deeper understanding of how LLMs are trained Understanding how different methods of fine-tuning optimize LLMs for specific applications (generative model fine-tuning, contrastive fine-tuning, in-context learning, etc.)
핸즈온 LLM

LLM, 눈으로 익히고 손으로 구현하라. 트랜스포머 구조부터 시맨틱 검색, 미세 튜닝, 프롬프트 엔지니어링까지 그림과 실전 코드로 만들면서 배우는 대규모 언어 모델의 모든 것 이 책은 LLM을 쓰는 것을 넘어, 이해하고 구현하는 것까지 나아가고 싶은 이를 위한 실전 가이드입니다. 직관적인 시각 자료와 예제를 제공해 ‘왜 이런 구조가 필요한지’ 이해하고 실용적인 도구와 개념을 익힐 수 있도록 구성했습니다. 사전 훈련된 대규모 언어 모델을 사용하는 방법과 시맨틱 검색 시스템을 만드는 방법, 텍스트 분류, 검색, 클러스터링을 위해 사전 훈련된 모델과 각종 라이브러리를 사용하는 방법을 배웁니다. 텍스트 생성과 표현에 뛰어난 트랜스포머 언어 모델의 구조 텍스트 문서를 그룹화하고 주제를 파악하는 고급 LLM 파이프라인 밀집 검색과 재순위 결정 같은 방법으로 키워드 검색을 넘어서는 의미 검색 엔진 구축 프롬프트 엔지니어링부터 검색 증강 생성까지 생성 모델 활용법 미세 튜닝, 생성적 사전 학습, 문맥 학습 같은 기술로 특정 용도에 맞게 LLM을 훈련하고 최적화하는 방법 이 책의 구성 1부: 언어 모델 이해하기 소규모 및 대규모 언어 모델의 내부 동작 원리 언어 모델의 두 가지 핵심 요소: 토큰화와 임베딩 그림으로 살펴보는 트랜스포머의 모델 구조 2부: 사전 훈련된 언어 모델 사용하기 지도 학습 분류 텍스트 클러스터링과 토픽 모델링 임베딩 모델 활용한 시맨틱 검색 텍스트 생성 모델 비전 도메인에 언어 모델 사용하는 방법 3부: 언어 모델 훈련 및 미세 튜닝 임베딩 모델을 만들고 미세 튜닝하는 방법 분류를 위해 BERT를 미세 튜닝하는 방법 생성 모델을 미세 튜닝하는 방법 대상 독자 챗GPT 같은 AI 서비스가 어떻게 작동하는지 궁금하신 분 NLP 프로젝트를 시작하려는 학생 및 개발자 AI를 활용한 비즈니스 모델을 고민하는 실무자
Advancing OpenMP for Future Accelerators

This book constitutes the refereed proceedings of the 20th International Workshop on OpenMP: Advancing OpenMP for Future Accelerators, IWOMP 2024, in Perth, WA, Australia, during September 23–25, 2024. The 14 full papers presented in this book were carefully reviewed and selected from 16 submissions. They are grouped into the following topics: current and future openMP optimization; targeting more devices; best practices; tools; and simplifying parallelization.