Meta wprowadza Code Llama 70B: skuteczny model sztucznej inteligencji do generowania kodu

Meta wprowadza Code Llama 70B: skuteczny model sztucznej inteligencji do generowania kodu

Code Llama, podstawowy model firmy Meta, został zmodyfikowany do obsługi 70B, co czyni go konkurencyjnym substytutem zamkniętych modeli kodu AI.

Zgodnie z opisem, Code Llama 70B jest największym i najbardziej wydajnym modelem. Może przetwarzać większą liczbę zapytań niż jego poprzednicy, co umożliwia programistom dostarczanie mu większej liczby podpowiedzi przy jednoczesnym zwiększeniu dokładności.

  • Code Llama 70B, podstawowy model Meta, został zmodyfikowany do obsługi 70B, co czyni go konkurencyjnym zamiennikiem dla zamkniętych modeli kodu AI.
  • Code Llama 70B jest największym i najbardziej wydajnym modelem jaki do tej pory powstał, przetwarzającym większą liczbę zapytań niż jego poprzednicy.
  • Oparty na Llama 2, Code Llama 70B pomaga programistom pisać kod poprzez generowanie fragmentów kodu z podpowiedzi i debugowanie odręcznego tekstu.
  • Model jest dostępny w repozytorium kodu Hugging Face i jest swobodnie dostępny do celów badawczych.
  • Dwa inne narzędzia Code Llama: Code Llama – Python i Code Llama – Instruct, są dostępne dla konkretnych języków kodowania.
  • CodeLlama-70B-Instruct, udoskonalona wersja CodeLlama 2, została zaprojektowana tak, aby rozumieć instrukcje w języku naturalnym i tworzyć kod zgodnie z nimi.
  • CodeLlama-70B-Instruct to pomocnik kodowania AI z obsługą czatu, który zapewnia programistom interaktywne doświadczenie wykraczające poza uzupełnianie kodu.
  • Rozwiązania AI, takie jak Code Llama, zostały opracowane przy użyciu podstawowych modeli kodu, takich jak StarCoder, GPT-4 i CodeGen-16B-Mono.
  • Firmy mogą hostować funkcjonalny model generowania kodu we własnym środowisku za pomocą Code Llama 70B, zapewniając ochronę swojej własności intelektualnej.

Oparty na Llama 2, Code Llama 70B pomaga programistom pisać kod poprzez generowanie fragmentów kodu z podpowiedzi i debugowanie odręcznego tekstu. Do szkolenia wykorzystano aż 1 TB kodu i danych związanych z kodem. Obecnie model jest dostępny w repozytorium kodu Hugging Face. Podobnie jak oryginalny model Llama 2, model jest nadal swobodnie dostępny do celów badawczych i jest dostępny w trzech różnych formach. GitHub zawiera kod wnioskowania dla modeli Code Llama.

Konkretne języki kodowania są przedmiotem dwóch innych narzędzi Code Llama: Code Llama – Python i Code Llama – Instruct. Dzięki dodatkowym 100 miliardom tokenów kodu Pythona, CodeLlama-70B-Python jest teraz w stanie generować kod dokładniej i płynniej. CodeLlama-70B-Instruct jest w stanie wykonywać szeroki zakres operacji, w tym wykonywać algorytmy i sortować, wyszukiwać, filtrować oraz zmieniać dane.

Udoskonalona wersja CodeLlama 2, która ma na celu zrozumienie instrukcji języka naturalnego i tworzenie kodu zgodnie z nimi, nosi nazwę CodeLlama-70B-Instruct. Jej zaawansowane funkcje poprawiają efektywność i jakość generowania kodu. Uzyskał on 67,8 punktów w HumanEval, wzorcowym zbiorze danych 164 problemów programistycznych przeznaczonych do oceny logiki i poprawności funkcjonalnej modeli generowania kodu, jest to wynik wyższy niż poprzednie najlepsze wyniki otwartych modeli, takich jak CodeGen-16B-Mono (29,3) i StarCoder (40,1), i porównywalny z zamkniętymi modelami, takimi jak GPT-4 (68,2) i Gemini Pro (69,4).

Liczne zadania, takie jak przetwarzanie danych, sortowanie, wyszukiwanie, filtrowanie i stosowanie algorytmów, takich jak faktoryzacja, Fibonacci i wyszukiwanie binarne, mogą być wykonywane przez CodeLlama-70B-Instruct. CodeLlama-70B-Instruct to asystent kodowania AI z obsługą czatu. Podczas gdy większość asystentów kodowania oferuje uzupełnianie kodu inline w oparciu o konwencje nazewnictwa i komentarze, asystenci sztucznej inteligencji opartej na czacie zapewniają programistom interaktywne doświadczenie, które wykracza poza uzupełnianie kodu, dając im dostęp do najlepszych praktyk, a nawet skryptów do wdrażania kodu.

Rozwiązania AI, takie jak Code Llama, zostały opracowane przy pomocy podstawowych modeli kodu, takich jak StarCoder, GPT-4 i CodeGen-16B-Mono. Przykładowo, StarCoder to duży model językowy dla kodu, który osiąga lepsze wyniki w szeroko stosowanych programistycznych testach porównawczych niż obecne otwarte modele LLM dla kodu. Dzięki większej zdolności przetwarzania danych wejściowych niż jakikolwiek inny otwarty LLM, może być on wykorzystywany do różnych celów.

OpenAI stworzyło multimodalny duży model językowy GPT-4, kolejny model bazowy. Copilot X, pomocnik dla GitHub Copilot, jest zasilany przez ten interpreter i komunikator języka i dialektu.

Z kolei CodeGen to rodzina dużych modeli językowych, które zostały wytrenowane przy użyciu danych dotyczących języków programowania i języków naturalnych. Został on wytrenowany kolejno na The Pile, BigQuery i BigPython i jest wykorzystywany do syntezy programów.

Firmy mogą hostować funkcjonalny model generowania kodu we własnym środowisku, wykorzystując Code Llama 70B. Mają teraz władzę i pewność co do ochrony swojej własności intelektualnej.

Total
0
Shares
Dodaj komentarz

Podobne Wpisy