آپاچی آورو
آپاچی آورو به چه معناست؟ Apache Avro یک فریم ورک فراخوانی رویه از راه دور و سریال سازی داده است که در پروژه Apache Hadoop توسعه یافته است که در آن فرمت سریال سازی برای دریافت داده های پایدار و قالب سیمی برای برقراری ارتباط بین گره های Hadoop و همچنین اتصال برنامه های مشتری به Hadoop ارائه می شود. خدمات. Avro از فرمت JSON برای تعریف پروتکلها و انواع دادهها استفاده میکند، و همچنین دادهها را به یک فرمت باینری فشرده تبدیل میکند.Bedan Apache Avro را توضیح می دهد Apache Avro یک چارچوب سریالسازی کلان داده است که دادهها را در قالب باینری فشرده تولید میکند که نیازی به تولید کد یا اشیاء پراکسی ندارد. به عنوان یک جزء سریال سازی داده ها برای Apache Hadoop استفاده می شود. Avro روی مفهوم طرحواره ها کار می کند. هنگامی که دادههای Avro خوانده میشوند، طرحوارهای که در هنگام نوشتن آن داده خاص استفاده شده است همیشه وجود دارد. این اجازه می دهد تا هر مجموعه داده بدون سربار هر مقدار، که باعث می شود سریال سازی سریع و نسبتاً کوچک باشد. و از آنجایی که دادهها و طرحوارههای آنها کاملاً خود توصیف میشوند، استفاده از آن را با زبانهای برنامهنویسی پویا آسان میکند. هنگامی که داده های Avro در یک فایل خاص ذخیره می شوند، طرحواره نیز با آنها ذخیره می شود تا بعداً توسط برنامه دیگری پردازش شود. بنابراین اگر برنامهای که دادهها را میخواند، انتظار طرحواره دیگری را داشته باشد، این مشکل به راحتی قابل حل است زیرا هر دو طرحواره وجود دارند. Avro ارائه می دهد: یک فرمت داده باینری فشرده و سریع ساختارهای داده غنی یک فایل کانتینری برای ذخیره داده های پایدار فراخوانی روش از راه دور (RPC) ادغام با زبان های پویا تولید کد برای خواندن یا نوشتن فایل های داده یا استفاده یا پیاده سازی پروتکل های RPC الزامی نیست.
Apache Avro
What Does Apache Avro Mean? Apache Avro is a data serialization and remote procedure call framework which is developed within the Apache Hadoop project where it provides both a serialization format to get persistent data and a wire format for providing communication between Hadoop nodes, as well as connecting client programs to the Hadoop services. Avro uses the JSON format for defining protocols and data types, as well as serializes data into a compact binary format. Techopedia Explains Apache Avro Apache Avro is a big data serialization framework which produces data in a compact binary format which does not require code generation or proxy objects. It is used as a data serialization component for Apache Hadoop. Avro works on the concept of schemas. When Avro data are being read, the schema which was used during the writing of that specific data is always present. This allows each data set without per-value overheads, which makes the serialization both fast and relatively small in size. And since data and their schema are fully self-describing, this makes it easy to use with dynamic scripting languages. When the Avro data are stored in a specific file, the schema is also stored with them to be later processed by another program. So if a program reading the data is expecting another schema, then this can easily be resolved since both schemas are present. Avro provides: A compact and fast binary data format Rich data structures A container file for storing persistent data Remote procedure call (RPC) Integration with dynamic languages Generation of code is not a requirement for reading or writing data files or to use or implement RPC protocols.