Mô tả công việc
Intern AI Engineer mảng LLM cho các ứng viên có định hướng phát triển chuyên sâu trong lĩnh vực RAG (Retrieval-Augmented Generation) và AI Agent. Ứng viên được tuyển dụng sẽ có cơ hội tham gia vào quá trình xây dựng các sản phẩm AI thực tiễn phục vụ nội bộ và khách hàng doanh nghiệp, đồng thời được làm việc cùng đội ngũ chuyên gia giàu kinh nghiệm và được hướng dẫn trực tiếp trong suốt quá trình phát triển
Thực tập sinh sẽ được giao nhiệm vụ hỗ trợ nghiên cứu, phát triển và triển khai các hệ thống AI Agent & RAG, bao gồm:
Xây dựng pipeline AI Agent dựa trên LangChain/LangGraph, tích hợp với API Backend.
Hỗ trợ phát triển và tối ưu hóa pipeline RAG (index → retrieve → generate).
Tham gia tích hợp LLM với WebSocket / Message Broker để phục vụ tương tác thời gian thực.
Làm việc với các Vector Database (Qdrant, ElasticSearch, Neo4j) cho mục đích indexing và search.
Hỗ trợ triển khai mô hình trong môi trường Docker, tối ưu hóa chi phí inference.
Tham gia viết tài liệu kỹ thuật, hỗ trợ kiểm thử và triển khai sản phẩm lên môi trường thực tế.
Yêu cầu
Sinh viên năm 3-4 hoặc mới ra trường chuyên ngành AI, Khoa học máy tính, CNTT,... hoặc các chuyên ngành có liên quan
Nắm được kiến thức nền tảng về Mô hình Ngôn ngữ Lớn (LLM), Truy vấn Tăng cường Truy xuất (RAG) hoặc Xử lý Ngôn ngữ Tự nhiên (NLP), đặc biệt được khuyến khích nếu đã tự nghiên cứu hoặc thực hiện các dự án liên quan.
Thành thạo ngôn ngữ
lập trình Python là bắt buộc, cùng với khả năng sử dụng các thư viện LangChain hoặc LangGraph sẽ được xem xét là một lợi thế.
Ứng viên cần có hiểu biết về dữ liệu văn bản, tài liệu PDF, cơ sở dữ liệu SQL/NoSQL hoặc các kỹ thuật xử lý dữ liệu.
Tư duy chủ động học hỏi và khả năng giải quyết các bài toán thực tế bằng công nghệ AI là những phẩm chất quan trọng.
Lợi thế:
Ứng viên đã từng tham gia thực hiện đồ án, bài tập lớn hoặc prototype liên quan đến LLM/RAG sẽ được ưu tiên.
Khả năng sử dụng các cơ sở dữ liệu vector (Qdrant, ElasticSearch, Neo4j) là một lợi thế.
Kinh nghiệm với các hệ thống truyền tin (RabbitMQ, Kafka, Redis Streams) sẽ được đánh giá cao.
Hiểu biết về Docker, FastAPI hoặc kiến trúc microservice là một điểm cộng.
Ứng viên có portfolio hoặc kho lưu trữ dự án (Git) liên quan đến AI/LLM sẽ được xem xét đặc biệt.
Quyền lợi
Mức hỗ trợ (trợ cấp/
cộng tác viên): 5.000.000 - 8.000.000 đồng tùy thuộc vào năng lực, cộng với thưởng theo hiệu quả công việc.
Cơ hội được tuyển dụng chính thức với mức lương từ 8.000.000 - 15.000.000 đồng sau thời gian đào tạo.
Ứng viên sẽ được tham gia trực tiếp vào các dự án AI thực tế với các doanh nghiệp đối tác.
Được đào tạo kèm cặp 1-1 bởi đội ngũ kỹ sư giàu kinh nghiệm, hỗ trợ xây dựng lộ trình phát triển cá nhân phù hợp.
Môi trường làm việc trẻ trung, linh hoạt, cởi mở, với nhiều hoạt động gắn kết đội ngũ (teambuilding, du lịch...).
Được tham gia Bảo hiểm Xã hội và Bảo hiểm Y tế theo quy định của pháp luật nếu lên chính thức.
Thông tin chung
Nơi làm việc
- - Hà Nội: nhà khách ATS, 8 Phạm Hùng, Phường Yên Hòa
- - Hà Nội: Phường Cầu Giấy
Cách thức ứng tuyển
Ứng viên nộp hồ sơ trực tuyến bằng cách bấm nút Ứng tuyển bên dưới:
Hạn nộp: 27/12/2025