自訂 Cookie
禁止且拒絕未經各資訊當事人同意,擅自蒐集本服務提供的使用者個人資訊資料等資料之行為。即使是公開資料,若未經許可使用爬蟲等技術裝置進行蒐集,依個人資訊保護法可能會受到刑事處分,特此告知。
© 2025 Rocketpunch, 주식회사 더블에이스, 김인기, 大韓民國首爾特別市城東區聖水一路10街 12, 12樓 1號, 04793, support@rocketpunch.com, +82 10-2710-7121
統一編號 206-87-09615
更多
自訂 Cookie
禁止且拒絕未經各資訊當事人同意,擅自蒐集本服務提供的使用者個人資訊資料等資料之行為。即使是公開資料,若未經許可使用爬蟲等技術裝置進行蒐集,依個人資訊保護法可能會受到刑事處分,特此告知。
© 2025 Rocketpunch, 주식회사 더블에이스, 김인기, 大韓民國首爾特別市城東區聖水一路10街 12, 12樓 1號, 04793, support@rocketpunch.com, +82 10-2710-7121
統一編號 206-87-09615
更多


김지환
SW 개발 · 시니어
AWS, GCP와 같은 클라우드 환경에서 프론트엔드/빅데이터/머신러닝/딥러닝 파이프라인/백엔드 개발이 가능한 풀스택 개발자입니다. 중급 실무영어 가능합니다.
職涯
貼文
AI 職涯摘要
김지환님은 AWS, GCP 환경에서의 풀스택 개발 경험을 보유한 시니어 SW 개발자입니다. 특히 NextJS, Python, FastAPI 등을 활용한 백엔드 및 프론트엔드 개발, LLM 기반 의료 데이터 구조화, 클라우드 인프라 구축 및 운영에 강점을 가지고 있습니다. 현재는 AWS 환경에서 Lead Software Engineer로 LLM 기반 의료 차트 데이터 구조화 시스템 개발을 주도하고 있습니다.
經歷
◼︎ Lead S/W Dev Team ◼︎ Leading development for Human LIMS(Laboratory Information Management System) - Tech stack: NextJS, PostgreSQL using Amplify, EB, EC2, SES, SNS, SQS, and RDS on AWS ◼︎ Medical Chart Data Structuring Project (March 2025 – Present) Developing a system to extract and structure information from patient medical charts using advanced LLMs, including Claude 3.7 Sonnet and OpenAI GPT-4o via API integration using Prompt engineering - Implementing the solution in Python, leveraging MongoDB for efficient storage of structured medical data. - Utilizing AWS Kinesis Data Streams for real-time event-driven processing and scalable data ingestion. - Focusing on automating and enhancing the accuracy of medical data handling, enabling faster insights and improved healthcare workflows. - Developing a custom AI model of NLP using the BERT algorithm to classify clinical outcomes.
更多
시니어 풀스택 엔지니어로서, SaaS 플랫폼의 프론트엔드 & 백엔드를 개발했습니다. 프로젝트 리드나 매니저가 아니라 엔지니어링 및 개발 실무를 담당했으며, 기술 스택은 아래와 같습니다. 4명의 AI 연구개발팀 이외에 개발팀 총원은 5명 이었습니다. 개발팀의 리드는 별도로 한 분(CTO)이 계셨습니다. 2명은 프론트엔드를 주로 담당했으며 저를 포함한 3명은 풀스택으로 개발했습니다. 아키텍처는 클린 아키텍처를 지향하여, domain, application, infra, adapter, presentation 과 같이 레이어를 분리하여 응집도는 높이면서 결합도는 낮추어 요구사항의 변화에 민첩한 대응이 가능하도록 설계하였습니다. API는 Django 기반 서버를 AWS EB에서 구현했으며, 한편으로는 서버리스 기반의 AWS Lambda 와 API Gateway를 결합하여 구현하여 Microservices 아키텍처 기반의 시스템 개발이 되도록 하였습니다. Redis 를 통해 캐시서버를 구현했으며, 검색 및 빅데이터 집계를 위해 Opensearch를 사용했습니다. 채팅 및 메시지 데이터와 같은 빅데이터는 DynamoDB에 저장을 했으며, 고객관리 및 결제관리 등의 응용업무 관리를 위한 DB로는 PostgreSQL 기반의 완전관리형 RDBMS인 Supabase를 사용했습니다. 2주 단위의 스프린트 마다 계획을 수립하여 Jira 이슈 기반으로 업무를 진행했으며, feature / bugfix 등의 브랜치로 분기하여 기본 브랜치(develop/release/master)에 머지하기 전에 언제나 PR을 통해 코드를 리뷰하여 코드 개선 및 상호 학습의 기회로 삼았습니다. Jest 기반의 테스트 코드를 통해 품질관리 및 회귀테스트를 진행했습니다. 시니어 엔지니어로서 객체 지향 설계 및 개발을 위한 멘토링을 비공식적으로 진행하기도 했습니다. 또한 애자일 기반의 개발이 되기 위한 가이드, (예를 들어 스토리포인트 estimation 이라든가 회고라든가 velocity 측정이라든가) 를 하기도 했습니다. CI/CD 등의 DevOps는 원격 리파지토리 관리툴인 Bitbucket pipeline을 통해 구현했으며, 프론트엔드 측은 완전 관리형 웹빌드 관리 툴인 AWS Amplify를 이용하여 CI/CD를 구현했습니다. 외부 시스템 연동을 위한 Event-Driven Processing 을 위해 Amazon SQS를 사용해 MQ (Message Queue)를 구현했습니다. Developing SaaS backend - Django/Python for APIs in the backend - NodeJS/Typescript using AWS Lambda, API Gateway - VueJS/Typescript on AWS Amplify - DB: AWS DynamoDB, Supabase, Opensearch - Paddle as a Payment Gateway - Amazon SQS as MQ (Message Queue) for Event-Driven Processing
更多
실무 시니어 백엔드 엔지니어(일부 프론트엔드 개발에도 참여)로서, 탄소회계 SaaS 개발에 참여했습니다. 개발팀을 리딩하기도 했지만 대부분의 Effort 는 개발 실무에 투입했습니다. Jira 와 Confluence 를 사용해 애자일 기반으로 개발했습니다. DB 는 Document 기반의 NoSQL인 MongoDB를 사용했으며, 완전관리형 MongoDB인 Atlas를 사용했습니다. MongoDB 자체에서 지원하는 검색엔진을 사용했으며, 워크플로우 관리는 Airflow 를 사용했습니다. 모든 서비스는 도커 컨테이너 기반으로 개발했으며, AWS 의 EC2 인스턴스를 사용했습니다. 아키텍처나 기술 스택의 결정을 리딩했으며, 매 스프린트마다 회고를 통해 개선점을 찾아 실행하는 사이클을 유지했습니다. CI/CD 는 Github Actions 를 기반으로 구현했습니다. 백엔드는 가볍고 강력한 Python 비동기 기반의 프레임워크인 FastAPI를 사용했습니다. Python object-document mapper (ODM) 는 Beanie를 사용했습니다. Built and maintained a SaaS platform for Net Zero on AWS ECS/Fargate/EC2 & Docker *Tech Stack - Frontend: TypeScript, VueJS, Material UI - Backend: Python 3.8, FastAPI, Docker, MongoDB, InfluxDB - DevOps: Github Actions - Jira as an Agile based project management tool - Confluence as a knowledge base - Airflow as a data pipeline platform
更多
Senior Software Engineer
Orenda Software Solutions │ a SIX Company (Canada/Swiss) · 정규직
2021년 11월 - 2023년 1월 · 1년 3개월
시니어 개발리드로서 실무 개발에 참여했습니다. 개발언어는 Java, Python과 Typescript, SQL 이었으며, CI/CD는 GCP 기반의 CloudBuild 를 사용했습니다. 백엔드 개발자 였습니다. 웹 프레임워크는 Springboot, Django, ExpressJS 였습니다. DB는 MySQL과 HBase 기반의 빅데이터DB인 BigTable 였으며 OLAP으로는 GCP 기반의 Big Query 를 사용했습니다. 초반의 RAIT(Retail Analytics and Insight Technology) 프로젝트에서는 캐나다의 유통 고객인 CF그룹을 위한 브랜드 평판 분석 시스템을 개발했습니다. 트위터의 텍스트를 마이닝하여 감성을 분석(Google의 인공지능 언어모델인 BERT를 활용)하여 평판을 실시간을 분석하는 시스템이었습니다. API 개발과 GCP PubSub을 활용하여 이벤트 Driven 아키텍처를 구현했으며, 데이터 스트리밍 플랫폼은 GCP 기반의 Dataflow 를 사용했습니다. 모든 기술 스택의 도입을 주도했으며 기술적인 가이드를 리딩했습니다. 개발팀은 5명이었으며, 프론트 개발자 2인, 백엔드 개발자 2인, AI 모델 개발자가 본인 포함 2인 이었습니다. 중반 이후의 SIX iD 프로젝트에서도 유사한 기술 스택으로 개발했으며, 유럽 스위스 기반의 글로벌 대형 금융IT 기업인 SIX Group을 고객사이자 투자사로 파트너쉽을 구축하여 개발하였습니다. 대부분의 회의는 SIX Group의 스위스 본사 개발팀과 공동으로 진행했습니다. 이 무렵 MLOps 에 대한 니즈가 있어서, 감성 분석 및 ESG를 위한 34개의 Category 분류 AI 모델을 Kubeflow 라는 쿠버네티스 기반, 컴포넌트 기반의 MLOps 플랫폼에서 개발/서빙/모니터링을 구현했습니다. 거의 모든 단계를 본인이 직접 진행했습니다. 하루에 처리하는 데이터셋이 30만 건 이상이었으며, 총 11 TB의 데이터를 핸들링했습니다. - Was building Investment Portfolio Construction & Optimization AI Engine based on ESG Score and other financial information using various Deep Learning Models - Developed AI models of NLP/NLU using BERT for text classification - As a tech lead, built a web platform on Docker for ESG analytics in the SIX iD project along with SIX Group Dev Team, using GCP Big Query for Big data Analytics and Data Warehouse(DW), Pub/Sub, Dataflow for data pipelines, Springboot, Django, and ExpressJS in Java, Python, and Javascript respectively. - Catalyze data analytics on BigQuery on GCP - Built a Text Summarization Engine using BERT and Page-Rank Algorithm - Built ML(Machine Learning) pipeline using Kubeflow on AI Platform on GCP as ML/Ops - Built APIs using Cloud Run which is a fully managed dockerized serverless platform on GCP for the microservices - Partly Built APIs with Serverless framework using Lambda function in Typescript on AWS with DynamoDB - Worked from home in Canada
更多
- Built Backend for SkinLog service: TypeScript & AWS Lambda function, DynamoDB, CloudWatch for logging, S3 for Storage, Route53 for DNS, CloudFront for CDN on AWS, Firebase for Authentication and FCM(Firebase Cloud Messaging), Elasticsearch for search engine and Data Analytics on Elasticsearch service AWS. - Worked from home in Canada
更多
活動
자격증
SCJP
1999년 2월
語言
상급 (업무상 원활한 의사소통)