検索条件
この条件の案件数:2

Sparkのフリーランス求人・案件一覧

1 - 30/件 全2件

新着
面談1回
リモートOK

【週5勤務/リモート併用(東陽町)】データ分析ツール導入開発(Python)※日本国籍の方、~50代歓迎のフリーランス求人・案件

50~55万円/月額
業務委託(フリーランス)
東陽町駅

案件の内容

下記業務をご担当いただきます。 ・データ分析、利活用ツールの導入・保守開発(開発より調査やドキュメント作成の方が多い想定) ・Azureへの移行 など

求めるスキル

・Python開発経験(データ分析、利活用にて使用するツールのため、大量データを扱った経験) ・日本国籍の方 ・50代まで

リモートOK

【週5勤務/週2リモート+飯田橋出社】データ分析基盤開発(Java)のフリーランス求人・案件

50~60万円/月額
業務委託(フリーランス)
飯田橋駅

案件の内容

data build tool(dbt)や、Databricksを用いて、次期データ基盤にてアジャイルでプログラム開発をご担当いただきます。

求めるスキル

・Java、Oracle等を用いた開発経験 ・SQL知識、業務経験

1 - 30/件 全2件

Sparkのフリーランス求人・案件について

Sparkは、Apacheソフトウェア財団によって開発されたオープンソースのクラスターコンピューティングフレームワークです。Sparkは、大規模なデータ処理を高速かつ効率的に行うことができるため、ビッグデータ処理において広く使われています。 Sparkは、MapReduceやHadoopと同じように、分散処理を行うことができますが、Sparkは、分散処理の中でも特にインメモリ処理に特化しており、高速なデータ処理を実現することができます。また、Sparkは、多くのプログラミング言語に対応しており、Scala、Java、Python、Rなどで開発することができます。 Sparkの主な特徴は以下の通りです。 1. 高速な処理: Sparkは、インメモリ処理に特化しており、高速なデータ処理を実現することができます。 2. 多言語対応: Sparkは、Scala、Java、Python、Rなどの多くのプログラミング言語に対応しており、開発者が自分の得意な言語で開発することができます。 3. 分散処理: Sparkは、分散処理を行うことができ、大規模なデータ処理を効率的に行うことができます。 4. コンポーネント: Sparkは、多くのコンポーネントを提供しており、機械学習やグラフ処理、ストリーミング処理などの分野でも利用されています。 Sparkは、多くの企業や組織でビッグデータ処理に利用されており、HadoopやMapReduceと共にビッグデータの分析や処理に欠かせないフレームワークの一つとなっています。