IT이야기2024. 9. 3. 14:02

두가지 놀라운 모습이네요. 빨간색 Nvidia 정말 무시무시하게 오르네요. 이 블루오우션에서 인텔만 계속 하락. 굳이 비교하면 물반 고기만인데 아무것도 못잡고 집에가는 그런 모습일련가요?

인텔 Data Centen 1년 매출은, 2018부터 이미 더 늘어나지 않는 상태였네요. 2024년에는 12-14B정도로 끝날지도 모르겠네요.

  • 2023: $15.52 billion
  • 2022: $19.2 billion
  • 2021: $22.7 billion
  • 2020: $23.5 billion
  • 2019: $23.5 billion
  • 2018: $22.99 billion

인텔을 AMD와 비교해도, 2024 Q2에 AMD는 $2.8B, 인텔은 $3B 거의 같고요. 다음분기는 최로로 AMD가 Intel을 data center 매출에서 넘어서게 됩니다.

Posted by 쁘레드
재밌는세상2024. 9. 3. 08:53

리즈 위더스가 출연한 Wild랑 영화도 여기 trail을 계속 북쪽으로 올라가는 이야기 였던 것으로 기억이 난다. 인생의 회의를 느끼고 무작정 걷기로 하면서 벌어지는 일이 대부분 내용인데. 처음부터 끝까지 걷는 것은 미친짓이지만 중간중간 예쁜 코스 몇개는 걸어보면 좋을듯. 그런데 구간에 따라 물구하기 어렵고 무식하게 더운날에는 생명이 위험할 수도 있다는 단점이 있음.

https://en.wikipedia.org/wiki/Wild_(2014_film)

 

Wild (2014 film) - Wikipedia

From Wikipedia, the free encyclopedia 2014 film by Jean-Marc Vallée Wild is a 2014 American biographical adventure drama film directed by Jean-Marc Vallée and written by Nick Hornby, based on the 2012 memoir Wild: From Lost to Found on the Pacific Crest

en.wikipedia.org

 

https://www.pcta.org/discover-the-trail/maps/

https://www.pcta.org/wp-content/uploads/2019/12/PCT-overview-map-on-1-page-by-Magellan-v.1.2018.jpg

캘리포니아 요세미티를 끼고 있는 John Muir Trail (JMT)도 아름다은 곳으로 꼽힘. 

 

미국 3대 장거리 트레일은

  1. PCT: Pacific Crest Trail
  2. CDT: Continental Divide Trail
  3. AT: Appalacian Trail
Posted by 쁘레드
IT이야기2024. 9. 1. 04:20

검색 증강 생성 한국말도 어렵구만.

-----------------

https://www.datanet.co.kr/news/articleView.html?idxno=193548

RAG, LLM 정확도 높이는 도구
환각현상이 생기는 이유는 AI가 학습한 정보를 조합해 답을 꺼낼 때 때 왜곡이 생기기 때문이다. 그래서 검색 범위를 좁혀 거짓된 답이 나올 수 있는 가능성을 줄이는 검색 증강 생성(RAG)이 주목받고 있다. RAG는 사전 학습된 대규모 언어모델과 외부 검색 또는 검색 메커니즘을 결합한 기술이다. 

RAG는 ▲검색기(Retriever) ▲생성기(Generator) ▲증강 방법(Augmentation Method)의 세가지 주요 구성요소로 이뤄진다.

검색기는 대규모 데이터 집합에서 정보를 찾아 텍스트 생성을 위한 데이터를 준비한다. 특정 분야 전문지식이나 사실 확인이 필요한 부분에서 검색 기능은 특히 중요하다. LLM의 일반 지식과 현재 맥락에서 정확한 정보의 차이를 해결하기 위해 정확한 의미론적 표현을 추출하고, 사용자 질의와 검색 대상 문서에서 일치된 데이터를 찾는다. 검색 결과를 기반으로 최종 답변을 도출하는 생성기와, 생성기의 답변에 추가 정보를 더하는 증강방법으로 정확한 답변을 내놓는다. 
-----------------

RAG(Retrieval-Augmented Generation)는 대규모 언어 모델의 출력을 최적화하여 응답을 생성하기 전에 학습 데이터 소스 외부의 신뢰할 수 있는 지식 베이스를 참조하도록 하는 프로세스입니다.

RAG stands for Retrieval-Augmented Generation. It’s a technique in natural language processing (NLP) that combines the strengths of retrieval-based and generation-based models. Here’s a breakdown of how it works and its applications:

  1. Retrieval: The system first searches through an external dataset or document collection to find relevant pieces of information based on the input query1.
  2. Augmentation: The retrieved information is then used to enhance the input query, providing additional context and details1.
  3. Generation: Finally, the augmented input is used to generate a more informative, accurate, and contextually relevant response1.

RAG is particularly useful for tasks that require understanding and synthesizing information from large knowledge bases, such as:

In the article you mentioned, the author is likely referring to how different language models perform in these RAG-specific tasks. Cohere’s Command-R seems to have impressed them with its ability to ground prompts and provide useful insights from source documents.

--------------

https://aws.amazon.com/ko/what-is/retrieval-augmented-generation/

 

RAG란? - 검색 증강 생성 AI 설명 - AWS

시맨틱 검색은 방대한 외부 지식 소스를 LLM 애플리케이션에 추가하려는 조직의 RAG 결과를 향상시킵니다. 오늘날의 기업은 매뉴얼, FAQ, 연구 보고서, 고객 서비스 가이드, 인사 관리 문서 리포지

aws.amazon.com

 

-----------------

Cohere.ai prompting document

https://docs.cohere.com/docs/prompting-command-r

Posted by 쁘레드