Skip to main content

Available Processor

Available Processor

Untuk membuat aliran data yang efektif, pengguna harus memahami jenis Prosesor apa yang tersedia. Bigaction berisi banyak Prosesor yang berbeda tersedia. Prosesor ini menyediakan kemampuan untuk menyerap data dari berbagai sistem, rute, transformasi, proses, split, dan data agregat, dan mendistribusikan data ke banyak sistem. Jumlah Prosesor yang tersedia meningkat di hampir setiap rilis NiFi. Oleh karena itu, kami tidak akan mencoba menyebutkan setiap Prosesor yang tersedia, tetapi kami akan menyoroti beberapa Prosesor yang paling sering digunakan, mengkategorikannya berdasarkan fungsi.

Data Transformation

  • CompressContent: Compress atau Decompress Content
  • ConvertCharacterSet: Ubah set karakter yang digunakan untuk menyandikan konten dari satu set karakter ke yang lain
  • EncryptContent: Encrypt atau Decrypt Content
  • ReplaceText: Gunakan Regular Expressions untuk modifikasi text
  • TransformXml: Gunakan XSLT transform menjadi XML Content
  • JoltTransformJSON: Gunakan JOLT specification untuk mentransform JSON Content

Routing and Mediation

  • ControlRate: Kurangi kecepatan aliran data melalui satu bagian aliran
  • DetectDuplicate: Memantau FlowFiles duplikat, berdasarkan beberapa kriteria yang ditentukan pengguna. Sering digunakan bersama dengan HashContent
  • DistributeLoad: Load balance atau sampel data dengan hanya mendistribusikan sebagian data ke setiap Hubungan yang ditentukan pengguna
  • MonitorActivity: Mengirim pemberitahuan ketika periode waktu yang ditentukan pengguna berlalu tanpa setiap data yang datang melalui titik tertentu dalam aliran. Secara opsional, kirim pemberitahuan saat aliran data dilanjutkan.
  • RouteOnAttribute: Route FlowFile berdasarkan atribut yang dikandungnya
  • ScanAttribute: menyimpan set Atribut yang ditentukan pengguna pada FlowFile, memeriksa untuk melihat apakah salah satu Atribut cocok dengan istilah yang ditemukan dalam kamus yang ditentukan pengguna.
  • RouteOnContent: Cari Konten FlowFile untuk melihat apakah itu cocok dengan yang ditentukan pengguna Ekspresi Reguler. Jika demikian, FlowFile dirutekan ke hubungan yang dikonfigurasi.
  • ScanContent: Cari Konten FlowFile untuk istilah yang ada dalam definisi pengguna kamus dan rute berdasarkan ada tidaknya istilah tersebut. Kamus dapat terdiri dari entri tekstual atau entri biner.
  • ValidateXml: Validasi Konten XML terhadap Skema XML; rute FlowFile berdasarkan apakah Konten FlowFile valid atau tidak menurut XML yang ditentukan pengguna Skema.

Database Access

  • ConvertJSONToSQL: Ubah dokumen JSON menjadi perintah SQL INSERT atau UPDATE yang kemudian dapat diteruskan ke Prosesor PutSQL
  • ExecuteSQL: Menjalankan perintah SQL SELECT yang ditentukan pengguna, menulis hasilnya ke FlowFile dalam format Avro
  • PutSQL: Memperbarui database dengan menjalankan pernyataan SQL DDM yang ditentukan oleh konten FlowFile
  • SelectHiveQL: Menjalankan perintah HiveQL SELECT yang ditentukan pengguna terhadap database Apache Hive, menulis hasilnya ke FlowFile dalam format Avro atau CSV
  • PutHiveQL: Memperbarui database Hive dengan menjalankan pernyataan DDM HiveQL yang ditentukan oleh konten FlowFile

Attribute Extraction

  • EvaluateJsonPath: Pengguna memasok Ekspresi JSONPath (Mirip dengan XPath, yang digunakan untuk parsing/ekstraksi XML), dan Ekspresi ini kemudian dinilai terhadap Konten JSON untuk menggantikan Konten FlowFile atau mengekstrak nilai ke dalam Atribut user-named.
  • EvaluateXPath: Pengguna memasok Ekspresi XPath, dan Ekspresi ini kemudian dievaluasi terhadap Konten XML untuk mengganti Konten FlowFile atau mengekstrak nilai ke dalam Atribut user-named
  • EvaluateXQuery: Pengguna memasok kueri XQuery, dan kueri ini kemudian dievaluasi terhadap Konten XML untuk mengganti Konten FlowFile atau mengekstrak nilai ke dalam Atribut user-named
  • ExtractText: Pengguna memasok satu atau lebih Ekspresi Reguler yang kemudian dievaluasi terhadap konten tekstual FlowFile, dan nilai yang diekstraksi kemudian ditambahkan sebagai atribut user-named.
  • HashAttribute: Melakukan fungsi hashing terhadap penggabungan daftar Atribut user-named.
  • HashContent: Melakukan fungsi hashing terhadap konten FlowFile dan menambahkan nilai hash sebagai Atribut.
  • IdentifyMimeType: Mengevaluasi konten FlowFile untuk menentukan jenis file apa yang dienkapsulasi FlowFile. Prosesor ini mampu mendeteksi berbagai Jenis MIME, seperti gambar, dokumen pengolah kata, teks, dan format kompresi.
  • UpdateAttribute: Menambahkan atau memperbarui sejumlah Atribut yang ditentukan pengguna ke FlowFile. Ini berguna untuk menambahkan nilai yang dikonfigurasi secara statis, serta menurunkan nilai Atribut secara dinamis dengan menggunakan Bahasa Ekspresi. Prosesor ini juga menyediakan "Antarmuka Pengguna Tingkat Lanjut," yang memungkinkan pengguna memperbarui Atribut secara kondisional, berdasarkan yang di definisikan user-supplied-rules.

System Interaction

  • ExecuteProcess: Menjalankan perintah Sistem Operasi yang ditentukan pengguna. StdOut Proses diarahkan sedemikian rupa sehingga konten yang ditulis ke StdOut menjadi konten FlowFile keluar. Prosesor ini adalah Prosesor Sumber - outputnya diharapkan menghasilkan FlowFile baru, dan panggilan sistem diharapkan tidak menerima input. Untuk memberikan masukan ke proses, gunakan Prosesor ExecuteStreamCommand.

  • ExecuteStreamCommand: Menjalankan perintah Sistem Operasi yang ditentukan pengguna. Isi FlowFile secara opsional dialirkan ke StdIn proses. Konten yang ditulis ke StdOut menjadi konten FlowFile keluar hte. Prosesor ini tidak dapat digunakan sebagai prosesor Sumber - prosesor ini harus diumpankan ke FlowFiles yang masuk untuk melakukan pekerjaannya. Untuk melakukan jenis fungsionalitas yang sama dengan Prosesor Sumber, lihat Prosesor ExecuteProcess. Untuk list lengkap dan keterangan detail processor yang ada bisa dilihat di Global Menu submenu Help.

Data Ingestion

  • GetFile
  • GetFTP
  • GetSFTP
  • GetJMSQueue
  • GetJMSTopic
  • GetHTTP
  • ListenHTTP
  • ListenUDP
  • GetHDFS
  • ListHDFS / FetchHDFS
  • FetchS3Object
  • GetKafka
  • GetMongo
  • GetTwitter

Data Egress / Sending Data

  • PutEmail
  • PutFile
  • PutFTP
  • PutSFTP
  • PutJMS
  • PutSQL
  • PutKafka
  • PutMongo

Splitting and Aggregation

  • SplitText
  • SplitJson
  • SplitXml
  • UnpackContent
  • MergeContent
  • SegmentContent
  • SplitContent

HTTP

  • GetHTTP
  • ListenHTTP
  • InvokeHTTP
  • PostHTTP
  • HandleHttpRequest / HandleHttpResponse

Amazon Web Services

  • FetchS3Object
  • PutS3Object
  • PutSNS
  • GetSQ:
  • PutSQS
  • DeleteSQS

Was This Article Helpfull?

Yes
No
© 2021 by Bigbox, Inc. All rights reserved.Last modified : December 27, 2021