امروز پنجشنبه ، ۱۴۰۱/۰۴/۱۶
بدان
FAENZYXWVUTSRQPONMLKJIHGFEDCBA

آپاچی آورو

آپاچی آورو به چه معناست؟ Apache Avro یک فریم ورک فراخوانی رویه از راه دور و سریال سازی داده است که در پروژه Apache Hadoop توسعه یافته است که در آن فرمت سریال سازی برای دریافت داده های پایدار و قالب سیمی برای برقراری ارتباط بین گره های Hadoop و همچنین اتصال برنامه های مشتری به Hadoop ارائه می شود. خدمات. Avro از فرمت JSON برای تعریف پروتکل‌ها و انواع داده‌ها استفاده می‌کند، و همچنین داده‌ها را به یک فرمت باینری فشرده تبدیل می‌کند.Bedan Apache Avro را توضیح می دهد Apache Avro یک چارچوب سریال‌سازی کلان داده است که داده‌ها را در قالب باینری فشرده تولید می‌کند که نیازی به تولید کد یا اشیاء پراکسی ندارد. به عنوان یک جزء سریال سازی داده ها برای Apache Hadoop استفاده می شود. Avro روی مفهوم طرحواره ها کار می کند. هنگامی که داده‌های Avro خوانده می‌شوند، طرحواره‌ای که در هنگام نوشتن آن داده خاص استفاده شده است همیشه وجود دارد. این اجازه می دهد تا هر مجموعه داده بدون سربار هر مقدار، که باعث می شود سریال سازی سریع و نسبتاً کوچک باشد. و از آنجایی که داده‌ها و طرحواره‌های آن‌ها کاملاً خود توصیف می‌شوند، استفاده از آن را با زبان‌های برنامه‌نویسی پویا آسان می‌کند. هنگامی که داده های Avro در یک فایل خاص ذخیره می شوند، طرحواره نیز با آنها ذخیره می شود تا بعداً توسط برنامه دیگری پردازش شود. بنابراین اگر برنامه‌ای که داده‌ها را می‌خواند، انتظار طرح‌واره دیگری را داشته باشد، این مشکل به راحتی قابل حل است زیرا هر دو طرحواره وجود دارند. Avro ارائه می دهد: یک فرمت داده باینری فشرده و سریع ساختارهای داده غنی یک فایل کانتینری برای ذخیره داده های پایدار فراخوانی روش از راه دور (RPC) ادغام با زبان های پویا تولید کد برای خواندن یا نوشتن فایل های داده یا استفاده یا پیاده سازی پروتکل های RPC الزامی نیست.

Apache Avro

What Does Apache Avro Mean? Apache Avro is a data serialization and remote procedure call framework which is developed within the Apache Hadoop project where it provides both a serialization format to get persistent data and a wire format for providing communication between Hadoop nodes, as well as connecting client programs to the Hadoop services. Avro uses the JSON format for defining protocols and data types, as well as serializes data into a compact binary format. Techopedia Explains Apache Avro Apache Avro is a big data serialization framework which produces data in a compact binary format which does not require code generation or proxy objects. It is used as a data serialization component for Apache Hadoop. Avro works on the concept of schemas. When Avro data are being read, the schema which was used during the writing of that specific data is always present. This allows each data set without per-value overheads, which makes the serialization both fast and relatively small in size. And since data and their schema are fully self-describing, this makes it easy to use with dynamic scripting languages. When the Avro data are stored in a specific file, the schema is also stored with them to be later processed by another program. So if a program reading the data is expecting another schema, then this can easily be resolved since both schemas are present. Avro provides: A compact and fast binary data format Rich data structures A container file for storing persistent data Remote procedure call (RPC) Integration with dynamic languages Generation of code is not a requirement for reading or writing data files or to use or implement RPC protocols.