-
dataframe - kết hợp một tập hợp các DataFrames thành một DataFrame lớn
Giả sử tôi có 3 DataFrames. Một trong các tên cột của DataFrame không có trong hai tên cột còn lại. sử dụng DataFrames df1 = DataFrame([['a', 'b', 'c'], [1,
-
dataframe - kết hợp một tập hợp các DataFrames thành một DataFrame lớn
Giả sử tôi có 3 DataFrames. Một trong các tên cột của DataFrame không có trong hai tên cột còn lại. sử dụng DataFrames df1 = DataFrame([['a', 'b', 'c'], [1,
-
dataframe - Lọc Spark DataFrame dựa trên DataFrame khác chỉ định tiêu chí danh sách từ chối
Tôi có một LargeDataFrame (nhiều cột và hàng tỷ hàng) và một SmallDataFrame (một cột và 10.000 hàng). Miễn là cột some_identifier trong bigDataFrame
-
dataframe - Julia: Việc chuyển DataFrame tới một hàm có tạo ra một con trỏ tới DataFrame không?
Tôi có một chức năng trong đó tôi chuẩn hóa N cột đầu tiên của DataFrame. Tôi muốn trả lại DataFrame đã chuẩn hóa nhưng để nguyên bản gốc. Tuy nhiên, hàm này dường như cũng làm thay đổi DataFrame đã truyền bằng D!
-
dataframe - Làm cách nào để tạo DataFrame trống với lược đồ được chỉ định?
Tôi muốn tạo trên DataFrame trong Scala bằng lược đồ được chỉ định. Tôi đã thử sử dụng chức năng đọc JSON (ý tôi là đọc một tệp trống) nhưng tôi nghĩ đây không phải là cách tốt nhất. Câu trả lời hay nhất giả sử bạn muốn có một khung dữ liệu với lược đồ sau: roo
-
dataframe - Làm cách nào để thay đổi DataFrame?
Tôi đang cố xóa một số cột khỏi khung dữ liệu và không muốn trả lại khung dữ liệu đã sửa đổi và gán lại nó cho khung dữ liệu cũ. Thay vào đó, tôi muốn hàm chỉ sửa đổi khung dữ liệu. Đây là những gì tôi đã thử, nhưng dường như nó không làm được những gì tôi đã ngoại trừ. Tôi có ấn tượng rằng các tham số được chuyển dưới dạng tham chiếu, trong khi
-
python - Pandas - Chia một DataFrame lớn thành nhiều DataFrame nhỏ hơn và chạy từng DataFrame thông qua một hàm
Tôi có một tập dữ liệu khổng lồ chứa khoảng 60000 dữ liệu. Trước tiên, tôi sẽ nhóm toàn bộ tập dữ liệu bằng một số tiêu chí, điều tiếp theo tôi sẽ làm là chia toàn bộ tập dữ liệu thành nhiều tập dữ liệu nhỏ trong tiêu chí và tự động chạy một hàm trên mỗi tập dữ liệu nhỏ để lấy tham số cho mỗi số thập phân
-
python - Chia DataFrame thành hai DataFrame và lọc cả hai DataFrame để có cùng kích thước
Tôi gặp phải vấn đề sau và nảy ra ý tưởng giải quyết nó nhưng không thành công: Tôi có cuộc gọi DAX và đặt dữ liệu cho mỗi ngày giao dịch trong một tháng. Sau khi chuyển đổi và một số tính toán, tôi có DataFrame sau: DaxOpt. Mục tiêu bây giờ là loại bỏ sự vắng mặt của
-
Pandas: Hợp nhất DataFrame nhỏ thành DataFrame lớn, phủ lên DataFrame nhỏ
Tôi đang cố gắng làm điều gì đó mà tôi nghĩ nên làm một cách đơn giản, nhưng tôi đang cố gắng làm cho nó đúng. Tôi có một khung dữ liệu lớn, hãy gọi nó là lg và một khung dữ liệu nhỏ, hãy gọi nó là sm. Mỗi khung dữ liệu có cột bắt đầu và cột kết thúc cũng như nhiều cột khác
-
Làm cách nào (hoặc nên) chuyển đổi DataFrame của DataFrame thành DataFrame nhiều chỉ mục?
Tôi có một khung dữ liệu với một loạt các khung dữ liệu như thế này: state1 state2 state3 ... sym1 sym
-
python - khung dữ liệu gấu trúc tạo khung dữ liệu mới bằng cách sao chép n hàng của khung dữ liệu trước đó và thay đổi ngày
Tôi có một khung dữ liệu với khoảng 9k hàng và 57 cột, đây là "df". Tôi cần một khung dữ liệu mới: 'df_final' - với mỗi hàng "df", tôi phải sao chép mỗi hàng "x" lần và tăng từng ngày trong mỗi hàng một, tức là "x" lần
-
Tại sao DataFrame được tạo bằng read_csv() lại khác với DataFrame khác được tạo bằng DataFrame() có cùng dữ liệu?
Giả sử có một tệp csv như sau: # data.csv 0,1,2,3,4 a,3.0,3.0,3.0,3.0,3.0 b,3.0,3.0,3.0,3.0,3.0 c,3.0,3.0, 3.0, 3.0,3
-
Pandas Sum DataFrame thành một DataFrame lớn hơn đã chứa cùng các chỉ mục có cùng tên cột
Tôi chỉ muốn biết liệu có ai có giải pháp hay hơn cho vấn đề sau không: Tôi có hai Pandas DataFrames: nhập gấu trúc dưới dạng pd df1 = pd.DataFrame([[1, 2, 3], [
-
android — Chuyển đổi pyspark.sql.dataframe.DataFrame loại Dataframe sang Từ điển
Tôi có khung dữ liệu pyspark và tôi cần chuyển đổi nó thành từ điển python. Đoạn mã sau có thể tái tạo được: from pyspark.sql import Row rdd = sc.parallelize([R
-
dataframe - Phân phối kết quả trung gian trong chuỗi DataFrame
Tôi có DataFrame và tôi muốn xử lý nó với sự trợ giúp của @chain. Làm thế nào để lưu trữ kết quả trung gian? sử dụng DataFrames, Chuỗi df = DataFrame(a = [1,1,2,2,2
-
dataframe - Nhiều điều kiện trong Julia DataFrame
Tôi có một DataFrame với 3 cột có tên :x :y và :z thuộc loại Float64. :x và "y là iid đều trên (0,1) và z là tổng của x và y.
-
python — Cột bộ lọc PySpark DataFrame chứa nhiều giá trị
Câu hỏi này đã có câu trả lời ở đây: bộ lọc khung dữ liệu pyspark hoặc bao gồm dựa trên danh sách (3 câu trả lời) Đã đóng 2 năm trước. Chỉ tự hỏi liệu có cách nào hiệu quả để làm điều này
-
dataframe - Julia - Bảng tần số cho DataFrame
Tôi vừa tìm thấy gói FreqTables này cho phép người ta dễ dàng xây dựng các bảng tần số từ DataFrames (Tôi đang sử dụng DataFrames.jl). Dòng mã sau đây trả về bảng tần số: df = CSV.read("exa
-
dataframe — Sắp xếp tùy chỉnh hiệu quả trong Julia DataFrames?
Có cách nào nhanh chóng để chỉ định thứ tự tùy chỉnh để sắp xếp không? /sắp xếp! trên Julia DataFrames? julia> sử dụng DataFrames julia> srand(1);
-
dataframe - Các cột trùng lặp trong Julia Dataframes
Trong Python Pandas và R, thật dễ dàng để loại bỏ các cột trùng lặp - chỉ cần tải dữ liệu, gán tên cột và chọn những cột không trùng lặp. Các phương pháp hay nhất để làm việc với loại dữ liệu này bằng Julia Dataframes là gì? không được phép ở đây
Tôi là một lập trình viên xuất sắc, rất giỏi!