"일꾼이 일을 잘하려면 먼저 도구를 갈고 닦아야 한다." - 공자, 『논어』.
첫 장 > 프로그램 작성 > 대용량 데이터에 대해 FastAPI에서 JSON 응답 성능을 최적화하는 방법은 무엇입니까?

대용량 데이터에 대해 FastAPI에서 JSON 응답 성능을 최적화하는 방법은 무엇입니까?

2024-11-09에 게시됨
검색:151

How to Optimize JSON Response Performance in FastAPI for Large Data?

대규모 데이터를 사용하는 FastAPI의 JSON 응답 성능 개선

FastAPI 사용자는 엔드포인트를 통해 대량의 JSON 데이터를 반환할 때 상당한 지연이 발생합니다. 포괄적인 솔루션에는 데이터 검색, 직렬화 및 클라이언트측 표시를 포함한 여러 요소를 해결하는 작업이 포함됩니다.

데이터 추출 및 읽기

예제 코드에서 강조된 것처럼 데이터 데이터를 Pandas DataFrame으로 변환하는 Pandas의 read_parquet() 함수를 사용하여 Parquet 파일에서 처음으로 추출됩니다. 효율성을 높이려면 대규모 데이터 세트를 처리하도록 특별히 설계된 Dask와 같은 대체 라이브러리를 활용하는 것이 좋습니다. Dask의 read_parquet() 메서드는 데이터 읽기 속도를 크게 향상시킬 수 있습니다.

JSON 직렬화

이후 JSON 직렬화 단계는 주요 성능 병목 현상이 되는 것으로 입증되었습니다. 기본적으로 FastAPI는 Python의 표준 json.dumps() 함수를 사용하므로 성능이 최적이 아닙니다. 이 프로세스를 가속화하기 위해 orjson 또는 ujson과 같은 대체 JSON 인코더를 사용하여 직렬화 시간을 크게 줄일 수 있습니다.

응답 유형 최적화

특정 시나리오에서는 Pandas DataFrame 반환 JSON 응답은 DataFrame과 JSON 출력 모두에 대한 RAM 할당으로 인해 메모리 문제가 발생할 수 있습니다. 이 문제를 해결하려면 파일 경로를 지정하지 않고 df.to_json()을 사용하는 것이 좋습니다. 그러면 JSON 출력을 메모리에 저장하지 않고 클라이언트에 직접 스트리밍합니다.

클라이언트측 디스플레이

최적화된 직렬화 기술을 사용하더라도 클라이언트 측 브라우저에 상당한 데이터를 표시하면 데이터 구문 분석 및 렌더링으로 인해 추가 지연이 발생할 수 있습니다. 이를 완화하려면 브라우저 내 표시 대신 다운로드 링크를 제공하여 데이터 처리를 클라이언트 시스템으로 오프로드하는 등의 옵션을 살펴보세요.

이러한 기술을 구현함으로써 개발자는 반환하는 FastAPI 엔드포인트의 성능을 극적으로 향상시킬 수 있습니다. 대량의 JSON 데이터를 사용하여 응답성이 뛰어나고 효율적인 사용자 경험을 보장합니다.

릴리스 선언문 이 기사는 1729263623에 재현됩니다.
최신 튜토리얼 더>

부인 성명: 제공된 모든 리소스는 부분적으로 인터넷에서 가져온 것입니다. 귀하의 저작권이나 기타 권리 및 이익이 침해된 경우 자세한 이유를 설명하고 저작권 또는 권리 및 이익에 대한 증거를 제공한 후 이메일([email protected])로 보내주십시오. 최대한 빨리 처리해 드리겠습니다.

Copyright© 2022 湘ICP备2022001581号-3